米ユーチューバー炎上で露呈した、有害コンテンツ対策の限界

Logan Paul’s Video Is a Cautionary Tale for Platforms That Hope AI Will Save Them from Offensive Content 米ユーチューバー炎上で露呈した、有害コンテンツ対策の限界

ユーチューバーのローガン・ポールが、12月31日にユーチューブ(YouTube)にある映像をアップロードした。自殺の名所として知られる富士山麓の樹海で、首つり自殺した人の遺体を前にジョークを連発している様子を映した映像である。 by Erin Winick2018.01.05

ユーチューバーのローガン・ポールが、12月31日にユーチューブ(YouTube)にある映像をアップロードした。自殺の名所として知られる富士山麓の樹海で、首つり自殺した人の遺体を前にジョークを連発している様子を映した映像である。

知らない人のために書いておくと、彼には1500万人のフォロワーがいる。そしてこの映像は、ポールが削除するまでに600万ビュー以上を集めた。

問題なのは、ポールの映像がユーチューブの監視ソフトウェアや人力によるチェックでは検知されなかったことだ。ポールの映像は、最高水準の人工知能(AI)システムの目をかいくぐった、決して拡散してはいけないコンテンツの典型例となってしまった。

マイクロソフト・リサーチのタールトン・ギレスピー主任研究員はバズフィードに対して、「実に不愉快なのは、自殺者の遺体を公に見せて冒とくしたことです」と語っている。「自動化ツールでは判断が難しい文脈であり、微妙な倫理的な問題なのです」。

この事件は、フェイスブックユーチューブがAIを使って有害コンテンツを取り除こうとしても、コンテンツのモデレーションは小手先のソフトウェアでは解決されないことを示している。