イメージ写真
AIのリスクについて生成AI開発会社の関係者がホワイトハウスに集まった。アルファベット社CEOサンダー・ピチャイ氏(左)とOpenAI CEOサム・アルトマン氏(写真:AP/アフロ)

 人工知能(AI)が目覚ましい速度で進化を遂げている。リスクが指摘されることも多く、今年5月には、対話型AI「ChatGPT(チャットGPT)」を開発した米オープンAIの最高経営責任者(CEO)や研究者らが、「AIが人類を滅亡させるリスク」について声明を発表したことが話題となった。北海道大学客員教授の小川和也氏は、著書『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)の中で、「想定しうる最悪な末路」と「回避策」を示している。“終末”を回避するためのアプローチの一部を、本書から抜粋して紹介する。

【表】ChatGPTが答えた将来なくなる仕事はこちら

*  *  *

制御戦略としての包括的AIサービス(CAIS)型アプローチ

 汎用人工知能以降の人間外高度知能を制御するということは、つまり人間よりも知能の高いシステムを制御しなければならないということだが、それは現実として困難である。システムの設計者としての人間が可能なのは、人工知能が高度化しても、人間の希望通りの範囲を超えないシステムにすることだ。

 その範囲を超えてしまった場合に、システムを制御もしくは破壊する防衛機能を設計する案も考えられるが、超えようとする超知能相手にこの防衛機能が想定通りに稼働するかは未知数である。

著者プロフィールを見る
小川和也

小川和也

北海道大学産学・地域協働推進機構客員教授。グランドデザイン株式会社CEO。専門は人工知能を用いた社会システムデザイン。人工知能関連特許多数。フューチャリストとしてテクノロジーを基点に未来のあり方を提唱。著書『デジタルは人間を奪うのか』(講談社現代新書)は教科書や入試問題に数多く採用され、テクノロジー教育を担っている。

小川和也の記事一覧はこちら
次のページ
「裏切りターン」のリスクのないシステム