巨大掲示板を支える自動化
コンテンツ監視の未来
ソーシャルメディアの利用が増えるにつれ、不適切なコンテンツを監視する「コンテンツ・モデレーター」の仕事は増えるばかりだ。ソフトウェアによる監視は、精神的なダメージが大きいコンテンツ・モデレーターの負担を軽減できるだろうか。 by Tanya Basu2019.11.27
シェーガン・ジェイヴァーは過去4年間、いくつかのサブレディット(投稿サイト「レディット(Reddit)」における「板」)をモデレートしてきた。ページを入念にスクロールし、コミュニティ規則に違反したり、あからさまに不快だったりする投稿をブロックする仕事だ。
コンテンツ・モデレーションについて研究しているジョージア工科大学博士課程生のジェイヴァーは、自動モデレーターが時間の節約だけでなく、心を弱らせるようなコンテンツをふるいにかけることができれば、人間のモデレーターの精神的な負担を軽減できるのではないかと考えた。 そこでジェイヴァーは3人の研究仲間とともに自動モデレーターの「オートモッド(AutoMod)」と呼ばれるシステムが実際に使えるかどうか検証した。
研究チームはレディットのいくつかのページを自らモデレートし、特に人気のあるサブレディットの16人のモデレーターにインタビューした。「r/photoshopbattles」「r/space」「r/explainlikeimfive」「r/oddlysatisfying」「r/politics」など、それぞれに数百万人の参加者がいるサブレディットだ。これらはすべてオートモッドの力を借りてモデレートしている。 ジェイヴァーはその成果を11月初旬、ACM(Association for Computing Machinery)の学会で発表した。
フェイスブック、インスタグラム、ユーチューブなどのソーシャルメディア・プラットフォームは、これまで長らく人間のモデレーターの手作業に依存してきた。コンテンツをくまなく調べ、人種差別や性差別のヘイト・スピーチから、銃乱射の生々しい映像に至るまでの暴力的で不快な要素を削除する仕事は、 多くの場合、最低賃金とわずかな手当てで働いているモデレーターたちによって支えられている。彼らは、深刻な精神的ダメージをもたらすコンテンツの打撃を受けな …
- 人気の記事ランキング
-
- This scientist rewarmed and studied pieces of his friend’s cryopreserved brain 10年冷凍保存の脳は「驚くほど良好」——蘇生は「まったく別の話」
- Future AI chips could be built on glass AIチップの熱問題、解決策は「ガラス」 年内に商業生産へ
- What do new nuclear reactors mean for waste? 新型原子炉が続々登場、核廃棄物管理の「手引き」は書き直せるか
- The Pentagon is planning for AI companies to train on classified data, defense official says 【独自】米国防総省、軍事機密データでAIモデルの訓練を計画