既存のAIの課題を解決するために進化させる能力を選択し、依存しすぎず、安全志向の技術・サービス開発を実行することが、このタイプのアプローチのポイントとなる。
人間が制御しきれない、人間よりも高度な人工超知能を作ることが人類滅亡の一因となるとすれば、このように限定的に超知能を活かすアプローチの実現を目指したい。先端科学技術が先へと急ぐアクセルから足を離すことを、「諦め」や「研究から先進性をはぎ取るもの」だと解釈せず、安全な人工知能を追求することこそが、人類への貢献であると認識するべきだ。加速を緩めてでも、限りなく安全かつ有用な人工知能を目指す試みの先にこそ、最悪な未来を回避する策が用意されているはずだ。ただし、そうした試みの機会が残されているのは、人間の知能を超える人工知能が誕生する直前までだ。
《『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)では、AIとゲノム編集に関する「想定しうる最悪な末路」と、その回避策を詳述している》