犯罪予測システムのバイアス、訓練データ変更でも改善効果なし
米国の警察で採用されている犯罪予測システムの人種的偏見は、訓練データの変更で是正できると考えられてきた。だが、バイアスが少ないと見られるデータを用いても、ほぼ改善効果がないことが明らかになった。 by Will Douglas Heaven2021.02.25
警察が使う予測捜査ツールに人種的偏見があることはすでによく知られている。これまでの研究によって、逮捕記録のような警察データを基にしてアルゴリズムを訓練すると、人種差別的なフィードバック・ループが生まれる可能性が示されてきた。だが、新たな研究では、バイアス(偏り)を減らす方法で予測ツールをトレーニングしても、効果がほとんどないことが明らかになった。
逮捕データによって予測ツールにバイアスが掛かるのは、警察が黒人やその他の人種的少数派を頻繁に逮捕しているからだ。それによってアルゴリズムはそうした人々が多く住む地域を重点的に捜査するよう指示を出し、それがさらなる逮捕へと繋がっている。その結果、予測ツールは警察がパトロールする地域を誤ったまま振り分けており、一部地域は不当に犯罪の温床として指定される一方、パトロール不足の地域が生まれている。
予測捜査ツールの開発企業は、各地域の犯罪率をより正確に把握するために被害届のデータを使い始めていると説明する。理論上、被害届は警察による偏見やフィードバック・ループの影響を受けないため、バイアスが減るはずだ。
だが、カーネギーメロン大学のアレクサンドラ・チョルデチョワ助教授と博士課程生のニル・ジャナ・アクピナールは、被害届から得られる情報も歪曲していることを明らかにした。アクピナールとチョルデチョワ助教授は「プレッドポル(PredPol)」など、米国で主流の著名な犯罪予測ツールが採用しているモデルを用いて、独自の予測アルゴリズムを構築。このモデルをコロンビアの首都ボゴタの被害届データを基に訓練した。ボゴタは、地区レベルで個別の通報データを利用できる数少ない都市のひとつである。
アクピナールとチョルデチョワ助教授はこのツール …
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- Why OpenAI’s new model is such a big deal GPT-4oを圧倒、オープンAI新モデル「o1」に注目すべき理由