
そもそも佐藤さんは「チャットGPTという技術は、実はそんなに大したものじゃない」という前提が必要だと話す。
「言葉と言葉の関連性、法則性を見つけ出すことで文章を作っている。つまり『何かを考えて』答えを出しているわけじゃありません。極論すれば『考えずに答えを出す方法を、とことん突き詰めたもの』とも言えます」
例えていうなら、子どもが、こういう場面ではこういうことを言うのだと覚え、口真似を言う。文脈は合っている。でも意味はわかっていない。その高度なバージョンがチャットGPTだという。
「たしかに生成する文章は見事。そりゃそうです、考えているわけではなく人間の文章の真似をして作っているだけですから。でも見事なだけに、人間はチャットGPTが意思を持って考えているかのように擬人化し、錯覚してしまうところがある」
ならば、「生成AIが進化すると人間の存在を脅かすのでは」などと恐れる気持ちは、杞憂(きゆう)なのだろうか。
「いえ、恐ろしさはあります。それは『錯覚をしてしまうことによる恐ろしさ』です。チャットGPTが考えているかのように錯覚し、出した答えを正しいことのように受け取り、信用してしまうことで、非常にまずい事態が起きてしまう。そんな意味での恐ろしさはありうると思いますね」
(編集部・小長光哲郎)
※AERA 2023年7月10日号号より抜粋

