●前向きな狙いで使っても、差別を広げる可能性がある

 AIの「女性嫌い」を改めさせることはできるのか。

 冒頭で紹介したMITメディアラボのブォラムウィニ氏らの結果発表には、続きがあった。約1年前の18年2月にも、やはりIT各社のAI顔認識の精度を比べ、公表している。この時に比較したのはマイクロソフト、IBM、フェイス++の3社。そしてこの18年2月のデータを今回発表したデータを比べると、AIの誤認識の割合は、特に女性に関して3社とも10ポイント前後の明確な改善が見られたという。

 ブォラムウィニ氏はこの間、前回の検証結果をIT各社に通告。その上で、AIによる女性への「格差」をアピールする動画をユーチューブで公開した。

 動画では特に誤認識率の高かった黒人女性に焦点をあて、前米大統領夫人のミシェル・オバマ氏や、女子プロテニス選手のセリーナ・ウィリアムズ氏、著名な司会者のオプラ・ウィンフリー氏らの顔写真が、IT各社のAIによっていずれも「男性」と判定される様子を映しだした。これらのキャンペーンが世論を喚起し、IT各社が顔認識の精度向上に取り組む動機づけになったという。

 ブォラムウィニ氏自身も黒人女性だ。かつてAIに自分の顔が認識されなかった経験があるという。18年6月のニューヨーク・タイムズへの寄稿で、同氏はこう述べている。

「AIは、世界を変える可能性がもてはやされがちだ。だが実際は、それがどんなに前向きな狙いで使われたとしても、バイアス(差別・偏見)や排斥を増幅してしまう可能性がある。私の経験がいい例だ」

 それを放置するのではなく、検証し、公表し、世論を喚起することで改めさせる──今回の検証結果について、ブォラムウィニ氏らはそう総括する。

「女性嫌い」などのAIのバイアス問題は、他人事ではない。筆者の近著『悪のAI論 あなたはここまで支配されている』(朝日新書)では、AIによって未来の犯罪を予測され、テロリストに仕立てあげられ、リベンジポルノのフェイク動画を拡散され、大統領選の裏工作まで行われている米国などの実態を取り上げた。

 AI社会のとば口で、改めてこの身近な問題をしっかり検証し、改めさせる必要が日本にもある。(朝日新聞IT専門記者・平和博)

AERA 2019年2月25日号