「違います。精度の差は、基本はデータ不足から起こるもの。女性の場合、化粧による変化が大きいせいもあるでしょうが、精度を得るためのデータが不足していたということです」(同)

 音声認識の分野でも、女性の声より、男性の声の解析精度が高い傾向があった。これも、女声のデータが少なく、かつ女声の周波数帯域が男声より広かったためではないかという。

 さて、皆さん。AIなら、人間と違って感情に左右されず、冷静にビッグデータから判断してくれるハズ、偏見や差別とは無縁、と思っていないだろうか。

 だが、データ自体、社会の実態の蓄積だ。偏った状態も、はっきりと映してしまうという。

 ある研究で、インドで公開された4千本以上の映画のプロットと配役のデータをAIに分析させた。すると、男性は「裕福な」、女性は「美しい」という言葉が、役の特徴として突出して現れた。

お金持ちの男性と美しい女性がよい、という価値観が根付いているのか、そうした男女を描いた作品がヒットするからかはわかりませんが、実際に配役の特徴は偏っていた。AIはそれをはっきりさせただけです」(同) 「CEO」を画像検索すると、白人男性ばかりが出てくる、と報告されたこともあった。CEO(Chief Executive Officer)は、企業の最高経営責任者を指す言葉に過ぎず、性別や人種の概念は含まない。だが、現実にCEOには男性が多く、女性が占める割合は8%程度と言われる。

「性別や人種をバランスよく提示すべき」という理屈は人間の倫理で、AIは与えたデータの傾向に従って結果を表示しただけ。理想を反映したければ、さまざまな性別や人種のCEOの画像データを大量にAIに与えなければならない。AIに求めるものを決めるのは、あくまで人間なのだ。

「自動運転車のトロッコ問題が有名ですね。トロッコに乗り、このまま進めば人をはねる、方向転換すれば通行人をひく、急ブレーキをかければ運転手が危ない、といった場合、どの選択肢を選ぶかには、正解がありません。人間でも答えを出せない倫理的問題は、AIも答えを出せないのです」(鎌田さん)

次のページ