KADOKAWA Technology Review
×
Facebookログイン終了のお知らせ(2026/3/31 予定)
犯罪予測システムのバイアス、訓練データ変更でも改善効果なし
David McNew/Getty Images
倫理/政策 無料会員限定
Predictive policing is still racist—whatever data it uses

犯罪予測システムのバイアス、訓練データ変更でも改善効果なし

米国の警察で採用されている犯罪予測システムの人種的偏見は、訓練データの変更で是正できると考えられてきた。だが、バイアスが少ないと見られるデータを用いても、ほぼ改善効果がないことが明らかになった。 by Will Douglas Heaven2021.02.25

警察が使う予測捜査ツールに人種的偏見があることはすでによく知られている。これまでの研究によって、逮捕記録のような警察データを基にしてアルゴリズムを訓練すると、人種差別的なフィードバック・ループが生まれる可能性が示されてきた。だが、新たな研究では、バイアス(偏り)を減らす方法で予測ツールをトレーニングしても、効果がほとんどないことが明らかになった。

逮捕データによって予測ツールにバイアスが掛かるのは、警察が黒人やその他の人種的少数派を頻繁に逮捕しているからだ。それによってアルゴリズムはそうした人々が多く住む地域を重点的に捜査するよう指示を出し、それがさらなる逮捕へと繋がっている。その結果、予測ツールは警察がパトロールする地域を誤ったまま振り分けており、一部地域は不当に犯罪の温床として指定される一方、パトロール不足の地域が生まれている。

予測捜査ツールの開発企業は、各地域の犯罪率をより正確に把握するために被害届のデータを使い始めていると説明する。理論上、被害届は警察による偏見やフィードバック・ループの影響を受けないため、バイアスが減るはずだ。

だが、カーネギーメロン大学のアレクサンドラ・チョルデチョワ助教授と博士課程生のニル・ジャナ・アクピナールは、被害届から得られる情報も歪曲していることを明らかにした。アクピナールとチョルデチョワ助教授は「プレッドポル(PredPol)」など、米国で主流の著名な犯罪予測ツールが採用しているモデルを用いて、独自の予測アルゴリズムを構築。このモデルをコロンビアの首都ボゴタの被害届データを基に訓練した。ボゴタは、地区レベルで個別の通報データを利用できる数少ない都市のひとつである。

アクピナールとチョルデチョワ助教授はこのツール …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
人気の記事ランキング
  1. This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
  2. OpenAI’s “compromise” with the Pentagon is what Anthropic feared アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は
MITテクノロジーレビューが選んだ、 世界を変える10大技術

MITテクノロジーレビューの記者と編集者は、未来を形作るエマージング・テクノロジーについて常に議論している。年に一度、私たちは現状を確認し、その見通しを読者に共有する。以下に挙げるのは、良くも悪くも今後数年間で進歩を促し、あるいは大きな変化を引き起こすと本誌が考えるテクノロジーである。

特集ページへ
AI革命の真実 誇大宣伝の先にあるもの

AIは人間の知能を再現する。AIは病気を根絶する。AIは人類史上、最大にして最も重要な発明だ——。こうした言葉を、あなたも何度となく耳にしてきたはずだ。しかし、その多くは、おそらく真実ではない。現在地を見極め、AIが本当に可能にするものは何かを問い、次に進むべき道を探る。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る