近年話題の対話型AI「チャットボット」。言語脳科学の分野において、数々の賞を受賞した東京大学教授・酒井邦嘉さんは、著書『デジタル脳クライシス』の中で、チャットボットを対話「風」AIと捉え、問題点を指摘している。言語モデルの角度から考える、チャットボットが克服すべき課題について、本書から一部を抜粋・再編集して解説する。
チャットボットと「対話」できるのか?
チャットボット(chatbot)とは、テキストや音声で人と言葉のやり取り(チャット)ができるロボットのことです。
言葉のやり取りといっても、チャットボットには人の心が分からない以上、対話や会話と言えるものではありません。誤解を招くことのないように、「対話型AI」ではなく「対話風 AI」と言うべきです。
チャットGPTに代表されるような「対話風AI」の利用が広がっていますが、その実体は何でしょうか。チャットGPTなどのAI自体に説明させれば、「AIが言葉を理解して人と会話するコンピューター・システム」といったものになるでしょう。
しかし、そもそも相手の意図や言葉を「理解」する設計ではありませんし、最低限の「会話」にすらなっていないのですから、それは大きな勘違いです。質問に答える形をとることで、人間側があたかも対話であるかのように錯覚してしまい、そのことをプログラムが利用しているだけなのです。
合成AIが言葉の「意味」を扱う方法として、人間が設定した主題(トピック)を含む文書データで、どのような単語が含まれるかを統計的にAIに学習させるモデル(「トピックモデル」と呼ばれます)があります。
このモデルによって、逆に特定の単語が現れる確率から主題を推定できますが、意味を大まかに分類するだけです。主題の設定を自動化してしまうと、今度は人間がAIの出した結果に縛られたり、惑わされたりしてしまいます。
たとえば、昭和の歌謡曲を主題とする意図で「美空ひばり」という名を出したのに、AIが日本の歌手全般を主題にしてしまうといった混乱がありえます。意味は多面的な要素を持つため、一義的な主題化やカテゴリー化では明らかに情報不足なのです。まして人が持ちうる意図の解析を実現するには、長い道のりがありそうです。
実際、チャットGPTの制限事項として、「もっともらしく聞こえるが、意味のない回答を出すことがある」そうです。意味が分からないからといって、合成AIが犯罪や中傷に利用されてはなりませんから、不適切な要求を受け付けないような制限が必要です。