IBMの研究者が目指す、「障がい者差別」のないAIの世界
知性を宿す機械

Can you make an AI that isn’t ableist? IBMの研究者が目指す
「障がい者差別」のない
AIの世界

人工知能(AI)システムが性別や人種に基づく偏見を持つことが広く問題視されていることに比べると、障がいを持つ人に対して不公平であることは見落とされがちだ。障がいを持つ人に対する差別をなくすことは、性別や人種に基づく差別を根絶することよりもはるかに難しい問題となる。 by Karen Hao2018.12.17

人工知能(AI)がバイアスを持つ問題についてはよく知られている。人種や性別に関しては特にそうだ。黒人女性を正しく認識できない顔認識システムや、 女性だというだけで候補者をはじいてしまう自動求人システムなどについて報じた記事を見たことがあるのではないだろうか?

研究者らがこうした重大な問題の解決に取り組む一方で、ずっと見落とされてきたグループがある。それは障がいを持つ人々だ。たとえば、自動運転車のアルゴリズムは、歩行者がどのように見えるかを学ぶためのデータを使って訓練することで、歩行者にぶつからないように設計されている。もし車いすに乗った人々の情報が訓練用データに入っていなければ、そうした人々は自動運転車によって生命の危険に晒されてしまう。

IBMのアクセシビリティ・リーダーシップチームの シャリー・トレウィン研究員にとってこのような状態は、許せないことだ。トレウィンは新しいイニシアチブの一環として、機械が障がいを持つ人々を差別するのを軽減するための新しい設計プロセスと技術的手法を研究している 。トレウィン研究員が現在におけるいくつかの課題と解決策について語ってくれた。

——障がいを持つ人々に対する公平性の問題が、人種や性別などといった他の保護すべき属性に対する公平性と異なるのはなぜですか?

障がいの状態が人々に与える影響は、はるかに多様で複雑です。人種や性別は、多くのシステム上で、取り得る値の数が少ない単純な変数としてモデル化されます。しかし、障がいの場合は、非常に多くの異なる形態や重症度が存在します。また、障がいといっても一時的なものから長期間続くものまであります。一生の間に障がい者の範囲から出たり入ったりすることもあります。動的に変化する問題なのです。

現在、米国の5人に1人は、何らかの障害を持っています。障がいを持つ人々はいたるところに存在しているので、限られた数の許容値を持つ一つの変数として固定するのは至難の業なのです。たとえば、目の不自由な人を区別できるシステムはあるかもしれませんが、耳の不自由な人の区別は難しいといったように、公平性のテストは非常に難しいのです。

障がいについての情報は、非常にセンシティブでもあります。人々は、性別や年齢に比べると、自分の持つ障がいについて明かすことに非常に慎重になります。さらには、障がいに関して尋ねること自体が違法な場合 …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。