ディープフェイク精度向上で新問題 動画は本物でも「本人成りすまし」言い訳の材料に

2020/10/22 08:00

 今や動画は真実を語るものではない――。本物と区別がつきにくいディープフェイクが、今後より判別できないほどのリアルさに近づいている。政治的な悪用も懸念されるため、米IT大手が本格的な対応に乗り出した。AERA 2020年10月26日号の記事を紹介。

あわせて読みたい

  • もはや動画は信用できない ディープフェイク「画像1枚」で本物そっくり偽造も可能

    もはや動画は信用できない ディープフェイク「画像1枚」で本物そっくり偽造も可能

    AERA

    10/21

    津田大介「『ディープフェイク』に注意せよ」
    筆者の顔写真

    津田大介

    津田大介「『ディープフェイク』に注意せよ」

    週刊朝日

    12/28

  • ディープフェイク問題の今後 パロディや風刺、二次創作への影響は?

    ディープフェイク問題の今後 パロディや風刺、二次創作への影響は?

    dot.

    10/15

    「ディープフェイク」にどう立ち向かえばいいのか? 政治的陰謀からフェイクポルノまで

    「ディープフェイク」にどう立ち向かえばいいのか? 政治的陰謀からフェイクポルノまで

    BOOKSTAND

    6/10

  • AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

    AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

    AERA

    2/20

別の視点で考える

特集をすべて見る

この人と一緒に考える

コラムをすべて見る

カテゴリから探す