米NPO「未来生命研究所(フューチャー・オブ・ライフ・インスティチュート、FLI)」は、4月12日付で公開したAI開発停止をめぐる政策提言書で、そう指摘する。提言書の中では、「(AI開発に対する)第三者機関による厳格な監査と認証」など7項目の政策を掲げている。

 同研究所は3月22日付の公開書簡で、「人間並みの知能を持つAIシステムは、社会と人類に重大なリスクをもたらす可能性がある」と指摘し、GPT-4よりも強力なAIシステムの学習を半年間停止するよう求めた。公開書簡に賛同する署名者の数は、開始から4週間で2万6千人を超えた。

 署名者として注目を集めるのは、世界的に知られる専門家たちだ。

 同研究所所長でマサチューセッツ工科大学(MIT)教授のマックス・テグマーク氏と、同研究所理事でネット通話サービス、スカイプの共同創業者、ヤン・タリン氏、同研究所アドバイザーでもあり、テスラやスペースX、ツイッターCEO、そしてオープンAIの創設にも携わったイーロン・マスク氏、AI研究で知られるカリフォルニア大学バークレー校教授、スチュアート・ラッセル氏。

 さらに、ディープラーニング(深層学習)のパイオニアでモントリオール大学教授のヨシュア・ベンジオ氏、アップル共同創業者のスティーブ・ウォズニアック氏、画像生成AI「ステイブル・ディフュージョン」を開発したAIベンチャー「スタビリティAI」CEOのエマード・モスターク氏、『ホモ・デウス テクノロジーとサピエンスの未来』などの著書があるヘブライ大学教授のユヴァル・ノア・ハラリ氏の名前もある。

 ただし、中には「習近平」など虚偽のものも含まれており、署名者の確認作業も進めているという。

 同研究所の名前は、2017年に公表されたAI研究・開発の先駆的ガイドライン「アシロマAI原則」とともに知られる。23項目におよぶガイドラインは、「高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである」など、今回の公開書簡につながる問題意識を示す。

次のページ
制御不能なAIへの懸念