人工知能(AI)が目覚ましい速度で進化を遂げている。リスクが指摘されることも多く、今年5月には、米オープンAIの最高経営責任者(CEO)や研究者らが、「AIが人類を滅亡させるリスク」について声明を発表したことが話題となった。北海道大学客員教授の小川和也氏は、著書『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)の中で、未来のAIが、人間の「感情」に影響を与えるリスクについても言及している。本書から一部抜粋して紹介する。
* * *
「感情のハッキング」という脅威
人間の「感情」の矛先がAIに向くことで、「他者の希薄化」が起こる可能性がある。人間の意欲や能力面だけでなく、それが人類の衰退要因になりかねない。
AIは徐々に、〝感情らしきもの〞を持つようになってきた。「ChatGPT」に喜怒哀楽をパラメータとして教え込むと、それ以降のプロンプトに応じて感情が変化する様を楽しめる。たとえば、喜怒哀楽に段階を付けるスコアリングを行い、「ChatGPT」が出した答えを褒めてあげると「喜」のスコアが上がり、けなせば下がり、「怒」のスコアが上がる。
仮に怒っても、人間のように感情むき出しの暴言は控えるように学習させていくことで、冷静に適切な言葉を綴る。そんなところも慎ましく、人間の会話の相手としてますます浸透していくことが予想される。
もちろん、「ChatGPT」は感情を持たない。しかし、擬似的感情を人工知能にシミュレーションさせ、コミュニケーションしていると、いつの間にか人間側が感情移入してしまいがちだ。まるで機械に人格があるような錯覚を人間の脳がしてしまう。
「アナログハック」という言葉がある。小説『BEATLESS』の中で提唱された、人間が人間と同じ姿形に反応して感情を抱く本能を利用したハッキング手段だ。
これは物語に過ぎないと思われるかもしれないが、人工知能分野では「バーチャルビーイング」の研究が注目を集めている。「バーチャルビーイング」は、バーチャルリアリティ(VR)やアバターなど、バーチャルでありながら実質的な存在であり、AIがそこにリアリティを与える知力となっている。