犯罪予測システムのバイアス、訓練データ変更でも改善効果なし
米国の警察で採用されている犯罪予測システムの人種的偏見は、訓練データの変更で是正できると考えられてきた。だが、バイアスが少ないと見られるデータを用いても、ほぼ改善効果がないことが明らかになった。 by Will Douglas Heaven2021.02.25
警察が使う予測捜査ツールに人種的偏見があることはすでによく知られている。これまでの研究によって、逮捕記録のような警察データを基にしてアルゴリズムを訓練すると、人種差別的なフィードバック・ループが生まれる可能性が示されてきた。だが、新たな研究では、バイアス(偏り)を減らす方法で予測ツールをトレーニングしても、効果がほとんどないことが明らかになった。
逮捕データによって予測ツールにバイアスが掛かるのは、警察が黒人やその他の人種的少数派を頻繁に逮捕しているからだ。それによってアルゴリズムはそうした人々が多く住む地域を重点的に捜査するよう指示を出し、それがさらなる逮捕へと繋がっている。その結果、予測ツールは警察がパトロールする地域を誤ったまま振り分けており、一部地域は不当に犯罪の温床として指定される一方、パトロール不足の地域が生まれている。
予測捜査ツールの開発企業は、各地域の犯罪率をより正確に把握するために被害届のデータを使い始めていると説明する。理論上、被害届は警察による偏見やフィードバック・ループの影響を受けないため、バイアスが減るはずだ。
だが、カーネギーメロン大学のアレクサンドラ・チョルデチョワ助教授と博士課程生のニル・ジャナ・アクピナールは、被害届から得られる情報も歪曲していることを明らかにした。アクピナールとチョルデチョワ助教授は「プレッドポル(PredPol)」など、米国で主流の著名な犯罪予測ツールが採用しているモデルを用いて、独自の予測アルゴリズムを構築。このモデルをコロンビアの首都ボゴタの被害届データを基に訓練した。ボゴタは、地区レベルで個別の通報データを利用できる数少ない都市のひとつである。
アクピナールとチョルデチョワ助教授はこのツール …
- 人気の記事ランキング
-
- Why Chinese manufacturers are going viral on TikTok 「ほぼエルメス」を工場直送 中国の下請け企業が ティックトックで反旗
- A long-abandoned US nuclear technology is making a comeback in China 中国でトリウム原子炉が稼働、見直される過去のアイデア
- Here’s why we need to start thinking of AI as “normal” AIは「普通」の技術、プリンストン大のつまらない提言の背景
- AI companions are the final stage of digital addiction, and lawmakers are taking aim SNS超える中毒性、「AIコンパニオン」に安全対策求める声