仮にコントロールを維持できたとしても、人工知能に人間が望むことを的確に伝えるために、人間は自らが望むことをどれだけ把握しているか、人間にとって何がベストかが明らかになっていることが求められる。
人間と人工知能の間で価値観・倫理観の相違が埋まらない限り、価値観・倫理観の観点でも人間は人工知能をコントロールしきれない。その間に、優位に立つ人工知能の価値観・倫理観と一致すると判断した特定の人間を選別し、優遇する可能性もある。これでは人間が人工知能の価値観・倫理観に合わせるようにコントロールされてしまう。
人工知能に人間界の倫理観を叩き込み、人工知能が倫理的に行動することを保証するためには、まずは人間にとっての倫理観をクリアにしなければならない。しかし、紀元前から長い時間をかけて、哲学の一分野としての倫理学や道徳哲学が追究されてきたが、全人類の一致、合意はなされていない。
そもそも、一致なき人間界の倫理観を人工知能に強引にインプットすることは、個々人の相容れない倫理観や価値観と衝突が起こるため現実的ではない。仮に何かしらの倫理観を持たせたとしても、何の倫理観も持たないさらに高知能の人工知能が現れ、それに支配されれば、インプットした倫理観も実効性がなくなる。
このように、人間と人工知能の価値観を一致させることは難航する可能性があり、常にギャップが残る。このギャップを悪用する人間がいるように、人工知能にも悪用できる余地がある。人工知能の飛躍的な進化で人間によるコントロールが不可能な域に達したとき、価値観のギャップも修復不可能となる。そうなれば、人工知能の行動は、仮に暴走と呼べるものであっても簡単には止められない。
《『人類滅亡2つのシナリオ AIと遺伝子操作が悪用された未来』(朝日新書)では、制度設計の不備が招く「想定しうる最悪な末路」と、その回避策を詳述している》