
人工知能から差別や偏見を排除できるのか?
米国では被告人を仮釈放すべきかどうか、裁判官に助言するソフトウェアが使われている。ローンの審査や人材採用に人工知能を活用する企業もある。こうした人生を左右する決定に使われるコンピューターから、差別や偏見を排除できるのだろうか? ハーバード大学のコンピュータ科学者であるシンシア・ドゥーワーク教授は、人工知能が公平に判断していることを確認する方法を開発している。 by MIT Technology Review Editors2017.10.26
アルゴリズム設計者やデータ・サイエンティストが、偏見や不公平について説明するのはなぜ難しいのでしょうか?
女性が働きにくい職場環境を例に考えてみましょう。「成功」の定義を、2〜3年間働き続けて昇進することと仮定します。過去のデータに基づいて予測すれば、女性を雇用するのはよい考えではない、となるでしょう。ここで重要なのは、歴史的な採用判断について話しているわけではないということです。たとえ採用基準から偏見を完全に払拭したとしても、現実として女性が働きにくい職場環境には相変わらず差別はあり続けるのです。より深い部分にある、構造的で、根深く、克服するのが困難な問題なのです。
私は機械学習と人工知能(AI)が誰と誰を対等に扱うべきかを判断するために、歴史や社会学、心理学の教養を持つ真の知識人と連携することが非常に役に立つと考えています。
コンピューターができないというのではなく、今はできないというのが私の意見です。AIが正しいモデルを身につけられるのはいつか。そのモデルが社会で現実に起きていることを反映できるようになるのはいつか。あなたが何の話をしているのか理解する必要があるのです。「すべてのモデルは間違っているが、中には役に立つモデルもある」という有名な言葉があります。
(聞き手:MITテクノロジーレビュー AI担当上級編集者 ウィル・ナイト)
- 人気の記事ランキング
-
- Meet the people who use Notion to plan their whole lives 生産性マニアが「Notion」で生活の95%を回す理由
- MITTR Emerging Technology Nite #23 Plus MITTR主催「生成AI革命2」開催(オンライン&東京)のご案内
- A chatbot that asks questions could help you spot when it makes no sense チャットGPT、「質問付き」回答で騙される人が減ることが判明
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?
- Design thinking was supposed to fix the world. Where did it go wrong? 世界を変えるはずだった 「デザイン思考」とは 何だったのか?