順天堂大学、北里大学などの医学部入試でも同様の不正があったことが明らかになっている。

 男女雇用機会均等法では、性別を理由とする人材募集、採用の差別を禁止している。だが実際には、企業の新卒採用の選考をめぐっても、同様の「女性嫌い」は長く指摘されてきた。

アマゾンが抱えた課題は、いまの日本の課題でもある

 アマゾンの採用AIの開発チームが抱えた課題は、いまの日本の課題でもある。

「女性嫌い」な事例は、ネット広告にもある。カーネギーメロン大学などの研究チームが14年8月に発表した論文で調べたのは、グーグルの広告配信システムのAIだ。

 グーグルは、ユーザーの過去の検索履歴や閲覧履歴などをもとに、興味や関心を判断し、それに沿ったネット広告を表示している。その判断に差別はないか。研究チームは専用プログラムを使って、男女半々で合わせて1千人の架空ユーザーをつくり出し、それぞれに100カ所の求職サイトを閲覧させた上で、グーグルから表示される広告を測定した。

 すると、男性の架空ユーザー向けには年収20万ドル(約2200万円)以上の役員ポストをうたう転職支援サービスの広告が1800回表示されたのに、女性の架空ユーザーには同様の広告は300回しか表示されなかった。女性向けには、一般的な求人サービスや自動車販売などの広告が、男性向けよりも多く表示されたという。

 ただし、この実験結果には、グーグルのAIの判定だけでなく、広告主による配信先の指定が影響している可能性もあるという。

 AIは学習するデータ次第では「ヘイト」にも染まる。その一例がマイクロソフトのチャットAI「Tay(テイ)」の実験だ。

「Tay」は「19歳の米国女性」というキャラクター設定のAIとして、16年3月23日にツイッター上で公開された。若いユーザーとの会話から学習していくという設計だった。

 だが、ネットを荒らすユーザーたちが「Tay」に目をつけ、差別的な言葉を「学習」させていく。それによって、「フェミニストは大嫌いだ。全員死んで地獄で焼かれろ」「ヒトラーはなにも悪いことはしてない」「ホロコーストはでっちあげ」などのツイートを発信するようになる。このため公開からわずか16時間後、9万6千件を超す投稿をした後、「Tay」は停止されることになった。

次のページ