フェイスブックの「自殺動画」が7500人体制でも消えない理由
コネクティビティ

Why 3,000 (More) People Won’t Fix Facebook’s Violent Video Problem フェイスブックの「自殺動画」が7500人体制でも消えない理由

タイで起きたショッキングな殺人中継事件をきっかけに、フェイスブックは不適切なコンテンツを削除する7500人のチェック体制を作ると発表した。それでも問題の解決には十分とは言えないかもしれない。 by Rachel Metz2017.05.10

フェイスブックは動画に関連したある問題を抱えている。このところ、暴力的な内容の動画投稿が続発しているのだ。先週、タイの男性が自分の幼い娘を殺害し、その後、自殺する様子をライブ配信する動画が投稿された。暴力的な動画は必ずしもすぐには消えないために、多くの人の目に触れてしまう恐れがある。

フェイスブックのマーク・ザッカーバーグ最高経営責任者(CEO)は、5月3日、不適切な動画を迅速に削除する取り組みの一環として、 ユーザーがより簡単に不適切映像を報告できるようにすると表明した。報告のチェックに当たる「コミュニティ・オペレーションズ」チームの人員を新たに3000人採用するという。コミュニティ・オペレーションズでは現在、4500人のスタッフが、週に数百万件寄せられる不適切な動画の報告に対応している。

人員の追加によってヘイトスピーチや児童搾取などの内容を含む動画の削除が進むはずだ、とザッカーバーグCEOは語った。

コミュニティ・オペレーションズの人員追加の動きは、不適切なコンテンツの排除を目指すフェイスブックにとって、最も新しい取り組みだ (関連記事 “フェイスブック、児童ポルノの通報を放置?”)。 2カ月前、フェイスブックは「自殺のライブ中継」を防止するツールを発表した(関連記事 “フェイスブック、自殺のライブ中継の防止機能を追加”)。フェイスブックの「友達」に向けて動画配信ができる「フェイスブック・ライブ(Facebook Live)」のサービスがおよそ1年前に開始されてから、現在までに数名が自殺する様子を配信している。

それでも、フェイスブックに投稿される暴力的な動画(フェイスブック・ライブでライブ配信される映像と、録画してアップロードされる映像の両方)の拡散を止めるには、一連の対策では不十分かもしれない。フェイスブックの利用者数は現時点で20億人近くに達しており、ウォールストリート・ジャーナルによる最近の調査によれば、1年前に立ち上げたフェイスブック・ライブだけでも最低50件の暴力行為が配信されている。

より多くのフェイスブックユーザーが動画の制作や視聴に夢中になれば、不適切な動画がさらに増加するのは確実だ。ザッカーバーグは今年2月の四半期電話会議で、動画は「巨大なトレンド」だと述べている。発言を裏付けるように、シスコシステムズが最近発表したレポートでも、今やモバイルデータ通信の60%を映像データが占めていることが示された。

不適切なコンテンツの問題を是正するために、人工知能ツールの活用は有効かもしれない。フェイスブックはすでに人工知能(AI)を導入し、投稿写真に写っている人物の特定などに利用しているが、ザッカーバーグ本人ですらAIツールの完成はまだまだ先の話だと考えている。

ザッカーバーグは、2月に投稿した長文記事で、フェイスブックは不適切な画像や動画を自動報告する技術研究を進めており、現在、コンテンツ調査チームが受けている報告のうち、およそ3分の1はAIによる警告に基づくものだ、と述べた。一方で、「AIを使ったシステムを完成させるには、何年もの時間がかかります」とも記している。

少なくとも今のところ、ザッカーバーグは、テクノロジーで解決できない問題を人間が解決することに期待している。ザッカーバーグは明るい話題に関心を向けるように、前週、ライブ中継で自殺をほのめかしたユーザーの報告を受けてフェイスブックが警察に通報し、自殺を未然に防げたと紹介した。

「他のケースでは、今回のような幸運には恵まれませんでしたが」。