AIが男女差別する? “データの偏り”が招く思わぬ落とし穴 (2/3) 〈AERA〉|AERA dot. (アエラドット)

AERA dot.

AIが男女差別する? “データの偏り”が招く思わぬ落とし穴

このエントリーをはてなブックマークに追加
熊澤志保AERA
検索エンジンで「CEO」で画像検索すると白人男性がかなりの多数派となって表示される(撮影/写真部・掛祥葉子)

検索エンジンで「CEO」で画像検索すると白人男性がかなりの多数派となって表示される(撮影/写真部・掛祥葉子)

「違います。精度の差は、基本はデータ不足から起こるもの。女性の場合、化粧による変化が大きいせいもあるでしょうが、精度を得るためのデータが不足していたということです」(同)

 音声認識の分野でも、女性の声より、男性の声の解析精度が高い傾向があった。これも、女声のデータが少なく、かつ女声の周波数帯域が男声より広かったためではないかという。

 さて、皆さん。AIなら、人間と違って感情に左右されず、冷静にビッグデータから判断してくれるハズ、偏見や差別とは無縁、と思っていないだろうか。

 だが、データ自体、社会の実態の蓄積だ。偏った状態も、はっきりと映してしまうという。

 ある研究で、インドで公開された4千本以上の映画のプロットと配役のデータをAIに分析させた。すると、男性は「裕福な」、女性は「美しい」という言葉が、役の特徴として突出して現れた。

「お金持ちの男性と美しい女性がよい、という価値観が根付いているのか、そうした男女を描いた作品がヒットするからかはわかりませんが、実際に配役の特徴は偏っていた。AIはそれをはっきりさせただけです」(同) 「CEO」を画像検索すると、白人男性ばかりが出てくる、と報告されたこともあった。CEO(Chief Executive Officer)は、企業の最高経営責任者を指す言葉に過ぎず、性別や人種の概念は含まない。だが、現実にCEOには男性が多く、女性が占める割合は8%程度と言われる。

「性別や人種をバランスよく提示すべき」という理屈は人間の倫理で、AIは与えたデータの傾向に従って結果を表示しただけ。理想を反映したければ、さまざまな性別や人種のCEOの画像データを大量にAIに与えなければならない。AIに求めるものを決めるのは、あくまで人間なのだ。

「自動運転車のトロッコ問題が有名ですね。トロッコに乗り、このまま進めば人をはねる、方向転換すれば通行人をひく、急ブレーキをかければ運転手が危ない、といった場合、どの選択肢を選ぶかには、正解がありません。人間でも答えを出せない倫理的問題は、AIも答えを出せないのです」(鎌田さん)


トップにもどる AERA記事一覧

おすすめの記事おすすめの記事
関連記事関連記事

あわせて読みたい あわせて読みたい