人工知能の差別的処理にマイクロソフトのナデラCEOが見解を明らかに
知性を宿す機械

Microsoft’s CEO Calls for Accountable AI, Ignores the Algorithms That Already Rule Our Lives MSナデラCEOの人工知能発言
将来より現実はどうなのか?

マイクロソフトのサティア・ナデラCEOは、差別的な人工知能の出現に警告するが、不公平なアルゴリズムがすでにあることはどうするのか? by Tom Simonite2016.06.30

マイクロソフトのCEO、サティア・ナデラは、人工知能の力がいずれ私たちの生活を支配するのではないかと心配する。昨日Slate に投稿された記事では、コンピュータ業界は今や我々の人間性を尊重できるように人工知能を設計する方法を検討し始めるべきだと述べた。

「未来の価値や倫理をテック業界が独占的に支配するべきではない」

ナデラは「意図せずに他者を傷つけた時、人間がそれを取り消すことができるようなアルゴリズム上の説明責任」を求める。AIを搭載したスマートソフトウェアを設計する際は、その働きを人間が精査し、特定の人々への差別や個人情報の不正使用を未然に防げなければならいというのだ。

マイクロソフトのナデラCEO

それは高潔で筋の通った配慮だが、テック業界のリーダーたちはこの問題をもっと早い段階で取り上げるべきだった。日常生活を形成するアルゴリズムやソフトウェアにも、すでに厄介なバイアスがひそんでいる可能性を示す証拠は山のようにある。

連邦取引委員会の報告では、インターネット以前の時代に非難されていた、人種的・経済的なバイアスが、ターゲット型広告やその他のネット上のサービスのなかで再び姿を見せている ということが明らかになっている。
ウィスコンシン州では、 犯罪者が再犯を行うかどうか予測を試みるシステム(これは刑期を決定するために使用されている)の動作が秘密であることを巡り、論争がある。

ちょうど今日、アメリカ自由人権協会が、 ネット上の仕事や住宅に関する広告に見られる人種差別を探す計画を掲げる研究者グループの代理として、アメリカ政府を起訴したところだ。ハッキングに関する連邦法と、テック企業の掲げる契約条件に阻まれて、このグループは計画を実行することができずにいるのだ。

ナデラが未来の人工知能の問題として語る事柄のうち、いくつかは今すでに、実際に起こっている。マイクロソフトの研究員ケイト・クロウフォードが、最近のニューヨークタイムズ の論説で、アルゴリズム上のバイアスについてわかりやすくまとめている。彼女によれば、ソフトウェアは「すでに職場や家庭、そして我々の法律システムに見られる不平等を深刻なものにしつつあるかもしれない

ナデラは人工知能に関する未来予測の文章を次のように締めくくっている。

「AIに関する我々の探求において最も根本的な次のステップは、その設計のために倫理的で共感的なフレームワークを準備することだ」

AIに支配される未来に備えるなら、今すでに私たちを取り囲んでいる「まぬけな」ソフトウェアに対して、倫理的で共感的なフレームワークを適用するのが一番良い方法ではないか。

(関連記事:SlateViceArs TechnicaNew York Times