フェイスブックが対テロ対策を強化、機械学習で99%排除
フェイスブックは過去3四半期の間に、サイト上にあったテロリスト関連のコンテンツの99%を精力的に見つけ出し、削除したと主張している。その過程に関するいくつかの原則をブログ記事で公表した。
最初に注意しておく必要があるのは、フェイスブックがいう「テロリズム」はイスラム国(ISIS)とアルカイダに限定されるということだ。フェイスブックはテロリスト関連のコンテンツを、投稿から平均2分以内に削除していると主張している。ちなみに今年初めの時点では、平均14時間かかっていた。フェイスブックは2018年第2四半期に940万件のコンテンツに対応策を講じたが、第3四半期はその数が300万件にまで減少している。これは、第2四半期の取り組みの成果によるものだ。
フェイスブックは、ISISやアルカイダを支持する兆候のあるコンテンツが投稿されたか否かを評価する、新たな機械学習ツールをリリースした。このツールは、投稿されたコンテンツがフェイスブックの対テロ政策にどのくらい違反している可能性が高いかを示すスコアを生成する。高いスコアが付けられた投稿は、人間の検閲者に回されて評価される。最高スコアが付けられた場合、投稿は自動で削除される。フェイスブックは「まれな事例」として、危険が切迫している可能性があると従業員が判断した場合は、直ちに司法当局に通知するという。
フェイスブックがテロに厳しく対処する意欲が高いことは明白だ。そしていつもの通り、フェイスブックの対策はもっぱらアルゴリズムに頼っている。人間は機械のようにすばやく大量の情報をスキャンすることなどできない(おまけに人件費も高い)。ゆえに、フェイスブックの立場から見ればアルゴリズムに頼ることは至極当然だ。だが、それでもやはりアルゴリズム頼みの姿勢は、フェイスブックが私たちに見せる情報に関して担う、裁判官や陪審員、死刑執行人としての役割を改めて思い起こさせるものだ。