※写真はイメージです(GettyImages)
※写真はイメージです(GettyImages)
この記事の写真をすべて見る

 人工知能(AI)を使って、アダルトビデオ(AV)出演者の顔を女性芸能人の顔にすり替えた動画「ディープフェイクポルノ」を作成し、インターネット上に公開したなどとして、警視庁と千葉県警は10月2日、大学生とシステムエンジニアの男性2人を名誉毀損と著作権法違反の疑いで逮捕した。同庁によると、容疑者らはネット上で入手できるフリーソフトを使って動画を制作し、自身が運営する有料サイトで約400本の偽動画を公開。約80万円の利益をあげていた。

【図解】ネットで正しく「引用」するための6カ条

「ディープフェイク」とは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語のことで、AIにもとづく人物画像合成の技術を指す。中でも女性芸能人の顔をポルノ動画にはめ込んで作成した偽動画のことを「ディープフェイクポルノ」と呼んでいる。日本でも、数年前から違法の「ディープフェイクポルノ」がネットに出回っていたが、今回が全国初の摘発となった。法的にはどのような問題があったのか、みずほ中央法律事務所の三平聡史弁護士に聞いた。

「今回、刑事では女性芸能人や所属事務所に対する名誉毀損罪と偽計業務妨害罪、AV動画を制作した著作権者に無断で動画を用いていますから、著作権法違反が該当します。民事では、女性芸能人側から肖像権侵害などによる損害賠償や謝罪請求、削除請求などが考えられます」(三平弁護士、以下同)

 著作権とは、著作物を独占的に使える権利のことで、人格的な利益を保護する「著作者人格権」と、財産的な利益を保護する「著作財産権」の2つに分けられる。

 著作者人格権とは、自分の著作物をいつどのような方法で公表するかを決められる「公表権」や、自分の著作物の内容などを自分の意に反して勝手に改変されない「同一性保持権」などがある。著作財産権は、コピーや録画など著作物を再製する「複製権」、著作物を放送したり、インターネットにアップロードしたりすることで公に伝える「公衆送信権」などがある。今回の事件では、AV作品を著作者の許可なく使用したうえ、改変も行っているため、「同一性保持権」の侵害にも当たる。

 顔写真を悪用された女性芸能人は、肖像権侵害はもちろんのこと、AVに出演していないにもかかわらず、あたかも出演したかのような誤解を招くことにもなりかねないため、名誉毀損罪や偽計業務妨害罪(虚偽の風説を流布し,または偽計を用いて人の業務を妨害する行為)を問えることになる。

次のページ
パロディや風刺、二次創作はどうなる?