フェイスブックは5月12日に公開した最新の「コミュニティ規定施行レポート」で、ヘイトスピーチやデマを検知する人工知能(AI)システムの最新のアップデートについて発表した。今四半期に削除したヘイトスピーチの全体の88.8%がAIによって検知され、80.2%だった前四半期より増加したという。AIシステムがヘイトスピーチだと強く確信した場合、コンテンツは自動的に削除されることになっているが、ほとんどの場合は最初に人間によってチェックされている。
こうした改善は、主にフェイスブックのAIシステムに対する2つのアップデートによるものだ。まず、フェイスブックは現在、投稿内容のニュアンスと意味をより正確に解読できる、大規模な自然言語モデルを使用している。過去2年間のAI研究の進歩によって実現したもので、人間の監修なしでニューラル・ネットワークの言語トレーニングを可能にし、手動でのデータ・キュレーションによるボトルネックを解消する。
2つ目の更新は、テキストの入った画像などのコンテンツ(悪意のあるミームなど)を、フェイスブックのシステムが分析できるようになったことだ。混合メディアのコンテンツを検知するAIの能力には依然として限界があるものの、フェイスブックは新しいデータセットを公開し、より優れた検知アルゴリズムを募るコンペも立ち上げている。
こうしたアップデートにも関わらず、AIは新型コロナウイルス感染症(COVID-19)の発生源に関する陰謀論や治療法に関するフェイクニュースなど、急増するデマへの対処で大きな役割を果たせずにいる。代わりに、フェイスブックはファクトチェックを実施する60以上のパートナー機関の評価者たちを頼りにしてきた。人間の評価者が、誤解を招く恐れのある見出しの付いた画像などのコンテンツにフラグを立てた場合にのみ、AIシステムは同一または類似のアイテムを検索する役目を引き継ぎ、警告ラベルを自動的に追加したりアイテムを削除したりする。フェイスブックのチームはデマの新たな例を見つけ出せるよう機械学習モデルを訓練できておらず、マイク・シュローファー最高技術責任者(CTO)は、「いままで見たことのないコンテンツを理解して分類するシステムの開発には、長い時間と多くのデータが必要です」と述べている。
この問題は、AIをベースにしたコンテンツ管理の限界を示している。システムは、以前目にしたものに類似するコンテンツは検知できるが、新たなデマが登場すると検知に失敗してしまう。フェイスブックは近年、より迅速に対応できるAIシステムの開発に多額を投資してきたが、これは同社だけが抱える問題ではなく、AI分野の大きな研究課題の1つであり続けている。
- 人気の記事ランキング
-
- This spacecraft is being readied for a one-way mission to deflect an asteroid NASAが計画する 「太陽系変える」探査機、 壊滅的被害は回避できるか
- This is the most precise 3D map of the Milky Way ever made 史上最も詳細な天の川銀河の3Dマップ、ESAが公開
- Don’t panic about the latest coronavirus mutations, say drug companies 新型コロナ「変異種」を過度に恐れる必要がないこれだけの理由
- Don’t worry, the earth is doomed 人類を滅亡に導く、15の破壊的リスク
- The kitchen of the future is here, it’s just not evenly distributed 電子レンジ、真空調理器超える「キッチン・テクノロジー」の未来

- カーレン・ハオ [Karen Hao]米国版 AI担当記者
- MITテクノロジーレビューの人工知能(AI)担当記者。特に、AIの倫理と社会的影響、社会貢献活動への応用といった領域についてカバーしています。AIに関する最新のニュースと研究内容を厳選して紹介する米国版ニュースレター「アルゴリズム(Algorithm)」の執筆も担当。グーグルX(Google X)からスピンアウトしたスタートアップ企業でのアプリケーション・エンジニア、クオーツ(Quartz)での記者/データ・サイエンティストの経験を経て、MITテクノロジーレビューに入社しました。