もはや動画は信用できない ディープフェイク「画像1枚」で本物そっくり偽造も可能 (1/2) 〈AERA〉|AERA dot. (アエラドット)

AERA dot.

もはや動画は信用できない ディープフェイク「画像1枚」で本物そっくり偽造も可能

このエントリーをはてなブックマークに追加
平土令AERA
米ワシントン大のスティーブン・セイツ教授らのグループによる論文。トム・ハンクスさんの膨大な数の画像から自由な表情の作成に成功した

米ワシントン大のスティーブン・セイツ教授らのグループによる論文。トム・ハンクスさんの膨大な数の画像から自由な表情の作成に成功した

 まるで本人のように見える「ディープフェイク動画」が各方面に被害を広げている。精度の向上により今後、すべての動画の信頼性が揺らぎかねない。AERA 2020年10月26日号で掲載された記事から。

*  *  *
 アダルトビデオ(AV)の女優の顔だけを有名女性芸能人と置き換えた動画を配信したとして摘発されるケースが相次いでいる。この動画作成を可能にした技術は「ディープフェイク」と呼ばれており、ポルノ関連を中心とした悪用が報告され、負の側面での注目が高まっている。

 元々は映像制作のコスト削減を主目的として開発が進んだ技術だが、有名政治家が実際にはしていない発言をしたように見せることで政治的な扇動に使われるケースも危惧されるなど、悪用の懸念は高まる一方だ。

■新たな性被害の温床に

「動画は今や、100%の真実を示す証拠にはなり得ない」

 台湾の人工知能(AI)スタートアップ企業、Appier(エイピア)のチーフAIサイエンティスト、孫民氏はこう語り、ディープフェイクで作られた動画が今後より一層、実物との区別がつかなくなることを警告する。

 警視庁などに摘発されたディープフェイクで有名人と顔を置き換えたポルノ動画は、15年ほど前に摘発が相次いだ、画像加工ソフトを活用して卑猥な静止画の顔を女性芸能人に置き換える「アイコラ(アイドルコラージュ)」の動画版と言い換えることもできる。ただ、当時よりもリアルさは増してきている。AV関連のディープフェイクの悪用をめぐっては、現時点では摘発事例はないが、AVのモザイクを、ディープフェイクでモザイク処理されていないかのように加工した動画も出回っている。今後、AV制作会社がこうした動画の作成者を告訴した上で、新たな摘発事例となる可能性もある。

 一方、被害に遭っているのは有名人だけではない。勝手に顔を置き換えられたポルノ動画がネットに配信されるという、新たな性被害の実例が世界的に報告されている。

 オランダのサイバーセキュリティー企業、ディープトレースの概算によれば、ネット上にあるディープフェイク動画の総数は2019年9月までの9カ月間にほぼ倍増した。こうした動画の96%が女性をターゲットにしたものだったという。

 ディープフェイクは、膨大なデータをAIに読み込ませて学習させる「ディープラーニング(深層学習)」と「フェイク(偽物)」を合わせた造語だ。孫氏によれば、17年に、一般の人でも利用しやすいオープンソースのソフトウェアとして公開されたことで急速に利用され始めたという。

 


トップにもどる AERA記事一覧

続きを読む

おすすめの記事おすすめの記事
関連記事関連記事

あわせて読みたい あわせて読みたい