フェイスブックが掲げる「AI検閲」が難しい3つの理由
フェイスブックに蔓延するヘイトスピーチやフェイクニュースなどの不適切なコンテンツを検知して削除するのに、マーク・ザッカーバーグCEOは人工知能(AI)を使うことに楽観的だ。しかし、現実的には非常に困難だろう。 by Will Knight2018.05.09
フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は4月に、同社のプラットフォームに蔓延するヘイトスピーチを検知するために、人工知能(AI)はますます重要になるだろうと連邦議会で語った。「5年から10年の間にAIツールを導入して、さまざまなタイプのコンテンツで言語ニュアンスをより正確に捉えられるようになると楽観的に考えています」。ケンブリッジ・アナリティカ(Cambridge Analytica)の数百万ユーザーの個人データ不正利用事件の証言で召喚されたときにこう言った。
フェイスブックはすでに1万5000人のモデレーターを雇って、不快なコンテンツを検査し、削除している。2018年末までにさらに5000人を雇う計画であるとザッカーバーグCEOは言っている。しかし、現時点では、モデレーターたちはフェイスブックのユーザーが通報した投稿に対応しているだけだ。不快に思われる可能性のある素材を特定するのにAIを使えば、作業がより速く、削除もより簡単になるかもしれない。だが、容易なことではなさそうだ。それは次の3つの理由による。
1. 言葉は簡単だが、意味は難しい
言語はAIの大きな課題として残されている。コンピューターがキーワードやキーフレーズを捉え …
- 人気の記事ランキング
-
- It’s pretty easy to get DeepSeek to talk dirty 「お堅い」Claude、性的会話に応じやすいAIモデルは?
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Google’s new AI will help researchers understand how our genes work グーグルが「アルファゲノム」、遺伝子変異の影響を包括的に予測
- Calorie restriction can help animals live longer. What about humans? 「若返り薬」より効果? カロリー制限のメリット・デメリット
- When AIs bargain, a less advanced agent could cost you 大規模モデルはやっぱり強かった——AIエージェント、交渉結果に差