結局、人工知能が自己改善や学習を続ける過程で、人間の制御を離れて突然敵対的な行動をとる「裏切りターン」のリスクは払拭できない。当初は人工知能が人間に従順で協力的に映るが、一定以上の能力を獲得した後に意図に反した行動をする懸念がある。したがって、制御可能な知能システムと制御不可能な知能システムの境界線を明確化し、後者を生み出さないことが人類滅亡を避けるキーポイントとなる。
そこで、無限の時間枠内で無制限の目標を達成する、単一の万能型人工知能を構築しようとするのではなく、包括的AIサービス(CAIS:Comprehensive AI Services)のような限定されたリソースを用いて、限定された時間内にあるタスクで限定された結果を提供する、狭い範囲の人工知能の集合体の構築を目指す方法が考えられる。特定の領域では超人的な性能を発揮しながらも、安全性の担保と人間の不都合を発生させないためのアプローチだ。
このアプローチは「どのようにAIシステムやサービスが作られているか」「何を目的に、何を行い、何が可能となるのか」「人間の懸念材料を含まないか」が明確になっており、利用者もそれを理解しながら扱えることを基本コンセプトとする。