ターミネーターの世界が現実に!? 「AIが殺人兵器になる日」 (1/3) 〈週刊朝日〉|AERA dot. (アエラドット)

AERA dot.

ターミネーターの世界が現実に!? 「AIが殺人兵器になる日」

このエントリーをはてなブックマークに追加
亀井洋志週刊朝日
トランプ米大統領とロシアのプーチン大統領(左)

トランプ米大統領とロシアのプーチン大統領(左)

 機械に組み込まれた人工知能(AI)の認知や判断によって敵を殺傷する「自律型致死兵器システム(LAWS・ローズ)」という兵器の開発が懸念されている。戦場でロボットが自ら判断して人を殺す。そんな近未来戦争の到来に、世界が戦慄(せんりつ)している。

 LAWSは“キラーロボット”とも呼ばれる。開発の目的は、自国の兵士を死なせないためで、戦略的効果も向上するという。これまでも敵の偵察や攻撃用に遠隔操縦式の無人機などが用いられてきた。このうえ、ロボットが人間に取って代われば、戦争への心理的ハードルがますます下がる危険性も指摘される。

 昨年からLAWSの規制などを検討するための政府専門家会合がスイスのジュネーブで続けられている。現在は、非人道的兵器を規制する「特定通常兵器使用禁止制限条約(CCW)」の枠組みで行われ、今年8月末に3回目の会合が開かれた。日本を含む約70カ国の代表団のほか、NGOや国際機関が参加。中南米諸国などが禁止条約の制定など規制を求めたのに対して、米ロなど大国は規制に消極的な姿勢を示しており、議論はまとまっていない。

 LAWSは火薬、核兵器に続く戦争の「第3の革命」になるとして、規制の機運が高まり、国際人権NGOの「ヒューマン・ライツ・ウォッチ(HRW)」は、2013年から「ストップ・キラーロボット」キャンペーンを牽引(けんいん)してきた。日本代表を務める土井香苗氏は、LAWSの規制を強く求めている。

「最大の問題は人間の介入なしにロボットが攻撃目標を決め、武力行使することです。戦場のルールは失われ、軍人、民間人の区別なく殺傷する残忍な戦争を引き起こす恐れがあります。独裁者の手に渡れば、容易に自国民弾圧に使われます。キラーロボットの開発や使用を禁止する法的拘束力のある条約の制定を急ぐべきです」

 AIを搭載して自動化された兵器の開発や配備じたいは進められているが、人間の操作が介在しない完全自律型の兵器はまだ存在していないとされる。従って、現時点ではLAWSについて明確な定義はない。だが、自律した人型ロボット(ヒューマノイド)が出現したとすれば、米映画「ターミネーター」シリーズさながらだ。映画ではAIが反乱を起こして核戦争が勃発。生き残った人間は機械との戦争を余儀なくされる。機械軍のターミネーターは、あらゆる手段で人間軍のリーダーを抹殺しようとする。


トップにもどる 週刊朝日記事一覧

続きを読む

おすすめの記事おすすめの記事
関連記事関連記事

あわせて読みたい あわせて読みたい