フェイスブックが掲げる「AI検閲」が難しい3つの理由
フェイスブックに蔓延するヘイトスピーチやフェイクニュースなどの不適切なコンテンツを検知して削除するのに、マーク・ザッカーバーグCEOは人工知能(AI)を使うことに楽観的だ。しかし、現実的には非常に困難だろう。 by Will Knight2018.05.09
フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は4月に、同社のプラットフォームに蔓延するヘイトスピーチを検知するために、人工知能(AI)はますます重要になるだろうと連邦議会で語った。「5年から10年の間にAIツールを導入して、さまざまなタイプのコンテンツで言語ニュアンスをより正確に捉えられるようになると楽観的に考えています」。ケンブリッジ・アナリティカ(Cambridge Analytica)の数百万ユーザーの個人データ不正利用事件の証言で召喚されたときにこう言った。
フェイスブックはすでに1万5000人のモデレーターを雇って、不快なコンテンツを検査し、削除している。2018年末までにさらに5000人を雇う計画であるとザッカーバーグCEOは言っている。しかし、現時点では、モデレーターたちはフェイスブックのユーザーが通報した投稿に対応しているだけだ。不快に思われる可能性のある素材を特定するのにAIを使えば、作業がより速く、削除もより簡単になるかもしれない。だが、容易なことではなさそうだ。それは次の3つの理由による。
1. 言葉は簡単だが、意味は難しい
言語はAIの大きな課題として残されている。コンピューターがキーワードやキーフレーズを捉え …
- 人気の記事ランキング
-
- Inside the tedious effort to tally AI’s energy appetite 動画生成は別次元、思ったより深刻だったAIの電力問題
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- What’s next for AI and math 数学オリンピックで「人間超え」のAIは数学者になれるか?
- IBM aims to build the world’s first large-scale, error-corrected quantum computer by 2028 IBM、世界初の大規模誤り訂正量子コンピューター 28年実現へ
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法