メタも昨年11月15日、科学情報に特化した対話型AI「ギャラクティカ(Galactica)」を公開していた。だが、内容の不正確さなどの指摘が相次ぎ、わずか2日後に停止した。
マイクロソフト「ビング」のAIチャットもAP通信の記者に対し、米プロフットボールリーグ(NFL)のスーパーボウルについて、実際のゲームが行われる5日前に、その結果やハーフタイムショーの曲目を説明したという。
「チャットGPT」でも、存在しない論文や、危険な健康アドバイスなど、様々な「もっともらしいデタラメ」の回答が指摘されている。
AIが現実には存在しない事柄などを回答する現象は、「幻覚」と呼ばれる。AIは、学習内容から最も可能性の高い単語のつながりを出力しており、「正しさ」「適切さ」を判断しているわけではないことが影響しているようだ。
さらに、回答内容に人種や性別へのバイアス(偏見)があることも指摘されている。カリフォルニア大学バークレー校の助教が「チャットGPT」に対して、「優れた科学者」をチェックするプログラムを書くよう指示したところ、出来上がったプログラムは判定の条件として「白人」と「男性」を挙げていたという。
現実的な脅威についても指摘されている。
オープンAIはスタンフォード大学、米ジョージタウン大学とともに1月11日、生成AIがフェイクニュースなどを使った世論工作(影響工作)に及ぼすインパクトについてまとめた報告書を発表している。
報告書では、直前に公開された「チャットGPT」には触れられてはいないが、そのもとになった「GPT-3」などの生成AIの悪用によって、フェイクニュースなどを使った世論工作がより安価に、大規模化、パーソナル化、リアルタイム化する危険性を指摘している。
このほか、ネット上のコンテンツが生成AIの学習データとして利用されていることに対し、著作権侵害の指摘もある。
●「制御不能」への懸念と規制
オープンAIでは、「チャットGPT」がヘイトスピーチや暴力賛美などの有害コンテンツを出力しないようガイドラインを設けている。それでも、AIの振る舞いは想定を超え、波紋を広げる。