犯罪予測システムのバイアス、訓練データ変更でも改善効果なし
米国の警察で採用されている犯罪予測システムの人種的偏見は、訓練データの変更で是正できると考えられてきた。だが、バイアスが少ないと見られるデータを用いても、ほぼ改善効果がないことが明らかになった。 by Will Douglas Heaven2021.02.25
警察が使う予測捜査ツールに人種的偏見があることはすでによく知られている。これまでの研究によって、逮捕記録のような警察データを基にしてアルゴリズムを訓練すると、人種差別的なフィードバック・ループが生まれる可能性が示されてきた。だが、新たな研究では、バイアス(偏り)を減らす方法で予測ツールをトレーニングしても、効果がほとんどないことが明らかになった。
逮捕データによって予測ツールにバイアスが掛かるのは、警察が黒人やその他の人種的少数派を頻繁に逮捕しているからだ。それによってアルゴリズムはそうした人々が多く住む地域を重点的に捜査するよう指示を出し、それがさらなる逮捕へと繋がっている。その結果、予測ツールは警察がパトロールする地域を誤ったまま振り分けており、一部地域は不当に犯罪の温床として指定される一方、パトロール不足の地域が生まれている。
予測捜査ツールの開発企業は、各地域の犯罪率をより正確に把握するために被害届のデータを使い始めていると説明する。理論上、被害届は警察による偏見やフィードバック・ループの影響を受けないため、バイアスが減るはずだ。
だが、カーネギーメロン大学のアレクサンドラ・チョルデチョワ助教授と博士課程生のニル・ジャナ・アクピナールは、被害届から得られる情報も歪曲していることを明らかにした。アクピナールとチョルデチョワ助教授は「プレッドポル(PredPol)」など、米国で主流の著名な犯罪予測ツールが採用しているモデルを用いて、独自の予測アルゴリズムを構築。このモデルをコロンビアの首都ボゴタの被害届データを基に訓練した。ボゴタは、地区レベルで個別の通報データを利用できる数少ない都市のひとつである。
アクピナールとチョルデチョワ助教授はこのツール …
- 人気の記事ランキング
-
- This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
- Online harassment is entering its AI era AIエージェントが勝手に ブログで個人攻撃、 「野放し」に歯止めなく
- AI is rewiring how the world’s best Go players think 「アルファ碁」から10年、 AIは囲碁から 創造性を奪ったのか
- OpenAI’s “compromise” with the Pentagon is what Anthropic feared アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は