ロボット工学

How to Fix Silicon Valley’s Sexist Algorithms 「過去」を学習した人工知能は、社会の「未来」を阻害しかねない

言語データセットに埋め込まれた性的な偏りを人工知能は受け継いでいる。しかし、偏りをなくせば済む話ではない。by Will Knight2016.11.24

大統領選挙戦は、米国社会の一部に男性中心主義が依然として定着していることを浮き彫りにした。だが、人工知能システムの学習でも、意図せずに機械を性差別主義者にしていることがわかっている。

新しい研究によれば、AIプログラムに言語能力を学習させるデータセットに性差別的な傾向がわずかに浸透している。性差別的な傾向のあるAIシステムの性能が向上し、広く利用されるようになれば、システムに組み込まれた性差別的な視点は、たとえば就職活動に悪い影響を及ぼしかねない。

問題の原因は、読み方や話し方を機械に学習させる方法にある。コンピューター科学者は非常に多くの書き言葉や話し言葉を機械に投入し、単語やフレーズ間の関連性を機械に算出させている。

機械が生成する「単語埋め込み(Word Embedding)」というデータセットは、言語を扱うAI(チャットボットや翻訳システム、画像説明プログラム、推薦アルゴリズムなど)の訓練に広く使われている。単語埋め込みでは、単語間の関連性を数値で表し、たとえば「王」と「女王」の意味的なつながりを機械が把握し、2つの単語の関連性が「男性」と「女性」という単語の関連性に似ていると理解する。しかし、このデータセットは「プログラマー」という単語が「女性」よりも「男性」に近く、「女性」に最も似ている単語を「主婦」とみなしていることが、ボストン大学とマイクロソフト・リサーチ・ニューイングランドの研究者によって発見された。

マイクロソフト在籍中にこの研究に関わったスタンフォード大学の