フェイスブック、AIの差別問題を調査する社内チーム設置へ
人工知能(AI)アルゴリズムの偏見(バイアス)批判を受けて、フェイスブックが社内チームを発足した。アルゴリズムの是正につながるか。 by Will Douglas Heaven2020.07.27
フェイスブックが自社のソーシャル・ネットワークおよびインスタグラムのアルゴリズムに、人種差別を調査する新しい社内チームを設置すると発表した。ウォール・ストリート・ジャーナルが報じた。特に今回の調査は、訓練データに符号化されて埋め込まれた人種差別によって、機械学習が黒人やヒスパニック系および他のマイノリティ集団に与える悪影響に対処するという。
この数年、多くの研究者や活動家が、人工知能(AI)における偏見と、マイノリティに対する不均衡な影響に関する問題を浮き彫りにしてきた。機械学習を使って25億人のユーザーの日常体験をキュレーションするフェイスブックは、長らくこのような内部評価を実施すべき状態にあった。例えば、フェイスブックの広告配信アルゴリズムが人種差別を行ない、広告主が特定の人種グループに広告を表示させないことを許可していた証拠はすでに存在する。
フェイスブックはこれまで、同社のシステムが抱えるバイアス(偏見)に対する批判を回避してきたが、数年にわたる批判的報道と人権活動団体の圧力によって今回の対応に至った。フェイスブックは、名誉毀損防止同盟(Anti-Defamation League)やカラー・オブ・チェンジ(Color of Change)、全米黒人地位向上協会(NAACP)を含む複数の人権活動団体が組織した広告ボイコットを、1カ月にわたって受けてきた。コカ・コーラやディズニー、マクドナルド、スターバックスのような広告に多額を投じる企業が広告キャンペーンを停止したことで、今回の新しい調査チームの発足に至っている。
歓迎すべき動きだ。だが、調査を開始することと、実際に人種差別の問題を解決することには大きな隔たりがある。解決策が分かっていない現状を考慮すればなおさらだ。ほとんどの場合、偏見は訓練データの中に存在し、それを取り除く優れた方法は存在しない。また、アルゴリズムの差別是正措置の1つとしてそのようなデータを調整することには、賛否両論ある。機械学習の偏見は、人種をめぐるソーシャル・メディアの問題の1つにすぎない。機械学習のアルゴリズムを調査するのであれば、フェイスブックは人種差別的な政治家や白人至上主義団体、ホロコースト(ユダヤ人大虐殺)否定論者に発信の場を与える方針の再検討にも取り組み、より幅広い見直しをかけるべきだ。
- 人気の記事ランキング
-
- This new image shows off magnetic fields swirling around a black hole 周囲の磁場くっきり、初撮影チームがブラックホール最新画像を公開
- What are the ingredients of Pfizer’s covid-19 vaccine? ファイザーの新型コロナワクチンの成分は?専門家が解説
- Error-riddled datasets are warping our sense of how good AI really is AIモデル評価用データセットに多数の誤り、実は優秀ではなかった?
- Covid-19 immunity likely lasts for years 新型コロナ、免疫は長期間持続か=米新研究
- Google’s top security teams unilaterally shut down a counterterrorism operation グーグルが報告した手練れのハッキング集団、実は欧米の工作員

- ウィル・ダグラス・ヘブン [Will Douglas Heaven]米国版 AI担当上級編集者
- AI担当上級編集者として、新研究や新トレンド、その背後にいる人々を取材しています。前職では、テクノロジーと政治に関するBBCのWebサイト「フューチャー・ナウ(Future Now)」の創刊編集長、ニュー・サイエンティスト(New Scientist)誌のテクノロジー統括編集長を務めていました。インペリアル・カレッジ・ロンドンでコンピュータサイエンスの博士号を取得しており、ロボット制御についての知識があります。