そのうえで、生中継の動画を実際に見た人の数は200人未満で、視聴した人から同社への通報はなく、警察当局からの連絡を受けて、数分で動画を削除したのだと経緯を明かした。

 が、問題はそこで終わらなかった。

 動画を見ていた人が、FBやユーチューブやツイッター上に、保存した動画をアップしはじめ、利用者たちがシェアする動きが一気に加速したという。

「FBでは事件後の24時間以内に、削除した例が100万件以上に上った」とビッカート。舞台裏では、各社が拡散防止の取り組みに全力をあげていたのだ。

 ビッカートはこうした動画の生中継や、関連動画をアップされることがないように、「(食い止める)技術をできるだけ早く改善できるよう、多くのリソースを割いている」と述べ、注力していることを強調した。

 FBは、こうした暴力コンテンツを検知するためにAIを使った取り組みを加速させており、テロ関連の投稿のAI検知率は99.3%に達しているという。

 ただ、AIで動画を検知することはまだ、容易ではないという。ビッカートは「規約に違反する動画を検知する技術は、改善しているものの、まだかなり初期段階にある」と説明。「長い道のりだが、我々は日々向上している」という。静止画をAIで認識する技術は向上しているが、動画となると、動いている映像をさまざまな画像に分解して認識する必要が出てくるため、簡単ではないのだ。

 そうしたなかで、暴力的な内容の生中継動画を食い止めるために、米国内では「生中継でなく、配信を遅延させるべきだ」との意見も出ている。こうした意見に対し、ビッカートは「だれかが『助けて、自分を傷つけてしまう』といった自殺願望を訴えるケースもある。遅延は、コミュニティーの安全確保にはつながらない」と語り、そうした訴えを警察にすぐに通報することで、人命を救える可能性があることを強調した。(朝日新聞サンフランシスコ支局長・尾形聡彦)

AERA 2019年6月3日号より抜粋