AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面 (2/4) 〈AERA〉|AERA dot. (アエラドット)

AERA dot.

AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

平和博AERA
マサチューセッツ工科大学のジョイ・ブォラムウィニ氏による調査では、米国の誰もが知る著名な黒人女性たちを、AIが「男性」と判定(同氏の動画から)(ジョイ・ブォラムウィニ氏提供)

マサチューセッツ工科大学のジョイ・ブォラムウィニ氏による調査では、米国の誰もが知る著名な黒人女性たちを、AIが「男性」と判定(同氏の動画から)(ジョイ・ブォラムウィニ氏提供)

米ラスベガスで1月に開かれた世界最大級の見本市「CES」でも、「スマートホーム」や自動運転技術など、AI関連の最新展示が席巻した(写真:Getty Images)

米ラスベガスで1月に開かれた世界最大級の見本市「CES」でも、「スマートホーム」や自動運転技術など、AI関連の最新展示が席巻した(写真:Getty Images)

人間のクイズ王者に圧勝したことで知られるIBMのAI「ワトソン」は、採用選考のエントリーシート評価にも使われている (c)朝日新聞社

人間のクイズ王者に圧勝したことで知られるIBMのAI「ワトソン」は、採用選考のエントリーシート評価にも使われている (c)朝日新聞社

 するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。

 AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。ただ、AIが正確で中立だとは限らない。社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。

 平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

 アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。

 ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。「応募者をより客観的に、また適正に評価する」としている。

「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

 サッポロビールも19年度入社の新卒採用のエントリーシート選考で、三菱総合研究所とマイナビが開発したAIシステムを導入した。

 AIがどのような基準で判定をするのか、その詳細を外部から知ることはできない。ただ、日本社会の中に「女性嫌い」が色濃く存在すれば、AIはそれを反映していくだろう。

「女性嫌い」の顕著な一例が、昨夏に発覚した医学部入試における女子受験生差別の問題だ。

 東京医科大学では、10年以上前から女子や浪人年数の長い男子の受験生が不利になる、不正な得点操作が行われていたことが明らかになった。

 大学関係者は調査に対して、「女性は結婚や出産で長時間勤務ができない」などとその理由を話したという。問題は医学部入試だけではなく、女性医師の採用問題に直結していたのだ。


トップにもどる AERA記事一覧

おすすめの記事おすすめの記事
関連記事関連記事

あわせて読みたい あわせて読みたい