
「30秒に1回」、ツイッターに蔓延するマイノリティ攻撃の実態
ツイッター上には荒らし行為や嫌がらせが蔓延している。最新の機械学習を用いたアムネスティ・インターナショナルの研究によると、黒人女性の政治家やジャーナリストは特に攻撃の対象となる確率が高いことが明らかになった。 by Will Knight2018.12.25
ツイッターは毒のある場所にもなる。ここ数年、ツイッター上での荒らしや嫌がらせにより、極めて不快で心を乱されるような経験をしている人は多い。とりわけ女性とマイノリティがその被害に遭っている。攻撃を自動的に認識して止めさせるにしても、正確かつ確実に実行するのは難しい。最近の人工知能(AI)の進歩を持ってしても、機械は人間のコミュニケーションに対し、意味ある応答をするのがいまだに苦手だ。たとえば、AIは皮肉とも捉えられる内容や、ポジティブなキーワードを含む内容を攻撃的なメッセージと判断するのに苦労することが多い。
新たな研究として、最新鋭の機械学習を使って、ツイッター上の嫌がらせの度合いをより正確に理解しようとする取り組みが実施された。分析結果は、多くの人の予想を裏切らないものだった。女性でマイノリティのジャーナリストや政治家は、ツイッター上でおびただしい数の攻撃を受けているのだ。
研究は、カナダのエレメントAI(ElementAI)の協力で、国際的な人権団体であるアムネスティ・インターナショナルが実施した。黒人女性の政治家やジャーナリストは、同じ職業の白人女性に比べて、攻撃的なツイートや問題のあるツイートで名指しされる確率が84%も高いことが判明している。
「ひどく苛立ちを覚えます」というのは、機械学習の人道的な活用に重点を置く、エレメントAIのジュリアン・コーンバイス研究部長だ。「こういった女性たちは、社会を動かす大きな存在なのです」。
エレメントAIの研究者たちが最初に使用した機械学習ツ …
- 人気の記事ランキング
-
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- A Google Gemini model now has a “dial” to adjust how much it reasons 推論モデルは「考えすぎ」、グーグルがGeminiに調整機能
- Anthropic can now track the bizarre inner workings of a large language model 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路
- Meet the researchers testing the “Armageddon” approach to asteroid defense 惑星防衛の最終戦略 科学者たちが探る 「核爆発」研究の舞台裏