イメージ写真
AIのリスクについて生成AI開発会社の関係者がホワイトハウスに集まった。アルファベット社CEOサンダー・ピチャイ氏(左)とOpenAI CEOサム・アルトマン氏(写真:AP/アフロ)
この記事の写真をすべて見る

 人工知能(AI)が目覚ましい速度で進化を遂げている。リスクが指摘されることも多く、今年5月には、対話型AI「ChatGPT(チャットGPT)」を開発した米オープンAIの最高経営責任者(CEO)や研究者らが、「AIが人類を滅亡させるリスク」について声明を発表したことが話題となった。北海道大学客員教授の小川和也氏は、著書『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)の中で、「想定しうる最悪な末路」と「回避策」を示している。“終末”を回避するためのアプローチの一部を、本書から抜粋して紹介する。

【表】ChatGPTが答えた将来なくなる仕事はこちら

*  *  *

制御戦略としての包括的AIサービス(CAIS)型アプローチ

 汎用人工知能以降の人間外高度知能を制御するということは、つまり人間よりも知能の高いシステムを制御しなければならないということだが、それは現実として困難である。システムの設計者としての人間が可能なのは、人工知能が高度化しても、人間の希望通りの範囲を超えないシステムにすることだ。

 その範囲を超えてしまった場合に、システムを制御もしくは破壊する防衛機能を設計する案も考えられるが、超えようとする超知能相手にこの防衛機能が想定通りに稼働するかは未知数である。

次のページ
「裏切りターン」のリスクのないシステム