KADOKAWA Technology Review
×
無料の会員登録で、記事閲覧数が増えます
Why 3,000 (More) People Won’t Fix Facebook’s Violent Video Problem

フェイスブックの「自殺動画」が7500人体制でも消えない理由

タイで起きたショッキングな殺人中継事件をきっかけに、フェイスブックは不適切なコンテンツを削除する7500人のチェック体制を作ると発表した。それでも問題の解決には十分とは言えないかもしれない。 by Rachel Metz2017.05.10

フェイスブックは動画に関連したある問題を抱えている。このところ、暴力的な内容の動画投稿が続発しているのだ。先週、タイの男性が自分の幼い娘を殺害し、その後、自殺する様子をライブ配信する動画が投稿された。暴力的な動画は必ずしもすぐには消えないために、多くの人の目に触れてしまう恐れがある。

フェイスブックのマーク・ザッカーバーグ最高経営責任者(CEO)は、5月3日、不適切な動画を迅速に削除する取り組みの一環として、 ユーザーがより簡単に不適切映像を報告できるようにすると表明した。報告のチェックに当たる「コミュニティ・オペレーションズ」チームの人員を新たに3000人採用するという。コミュニティ・オペレーションズでは現在、4500人のスタッフが、週に数百万件寄せられる不適切な動画の報告に対応している。

人員の追加によってヘイトスピーチや児童搾取などの内容を含む動画の削除が進むはずだ、とザッカーバーグCEOは語った。

コミュニティ・オペレーションズの人員追加の動きは、不適切なコンテンツの排除を目指すフェイスブックにとって、最も新しい取り組みだ (関連記事 “フェイスブック、児童ポルノの通 …

こちらは会員限定の記事です。
無料登録すると1カ月10本までご利用いただけます。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
ザ・デイリー重要なテクノロジーとイノベーションのニュースを平日毎日お届けします。
公式アカウント