人工知能から差別や偏見を排除できるのか?
知性を宿す機械

How to Root Out Hidden Biases in AI 人工知能から差別や偏見を排除できるのか?

米国では被告人を仮釈放すべきかどうか、裁判官に助言するソフトウェアが使われている。ローンの審査や人材採用に人工知能を活用する企業もある。こうした人生を左右する決定に使われるコンピューターから、差別や偏見を排除できるのだろうか? ハーバード大学のコンピュータ科学者であるシンシア・ドゥーワーク教授は、人工知能が公平に判断していることを確認する方法を開発している。 by MIT Technology Review Editors2017.10.26

アルゴリズム設計者やデータ・サイエンティストが、偏見や不公平について説明するのはなぜ難しいのでしょうか?

女性が働きにくい職場環境を例に考えてみましょう。「成功」の定義を、2〜3年間働き続けて昇進することと仮定します。過去のデータに基づいて予測すれば、女性を雇用するのはよい考えではない、となるでしょう。ここで重要なのは、歴史的な採用判断について話しているわけではないということです。たとえ採用基準から偏見を完全に払拭したとしても、現実として女性が働きにくい職場環境には相変わらず差別はあり続けるのです。より深い部分にある、構造的で、根深く、克服するのが困難な問題なのです。

私は機械学習と人工知能(AI)が誰と誰を対等に扱うべきかを判断するために、歴史や社会学、心理学の教養を持つ真の知識人と連携することが非常に役に立つと考えています。

コンピューターができないというのではなく、今はできないというのが私の意見です。AIが正しいモデルを身につけられるのはいつか。そのモデルが社会で現実に起きていることを反映できるようになるのはいつか。あなたが何の話をしているのか理解する必要があるのです。「すべてのモデルは間違っているが、中には役に立つモデルもある」という有名な言葉があります。

(聞き手:MITテクノロジーレビュー AI担当上級編集者 ウィル・ナイト)