KADOKAWA Technology Review
×
「Innovators Under 35 Japan」2024年度候補者募集中!
「説明可能なAI」はなぜ透明性を高めるだけではダメなのか?
MS Tech / Getty
人工知能(AI) Insider Online限定
Why asking an AI to explain itself can make things worse

「説明可能なAI」はなぜ透明性を高めるだけではダメなのか?

深層学習の人工知能(AI)システムがさまざまな分野で使われるようになるにつれ、ブラックボックス批判が高まっている。だが、AIをただ「説明可能」にするだけでは不十分だ。 by Douglas Heaven2020.02.05

ウポル・エーサンが以前、ウーバーの自動運転自動車に試乗した時のことだ。運転席に誰もいないことが不安な乗客は、自動運転自動車の視点を可視化した画面を見て「心を落ち着かせるように」と勧められた。画面には、車が危険と判断した道路上の物体がオレンジと赤で、安全ゾーンはクールなブルーで表示されていた。

AI Issue
この記事はマガジン「AI Issue」に収録されています。 マガジンの紹介

アトランタにあるジョージア工科大学で人間と人工知能(AI)の対話について研究しているエーサンには、その画面の意図は明らかだった。「安心してください。画面表示を見れば車の運転操作の根拠がわかります」ということだ。しかし、画面に映し出された見慣れない道路の風景は、安心感を与えるよりもむしろ、自動運転車に乗車していることの奇妙さを際立たせるものだった。そこでエーサンは、自動運転自動車が運転操作について人間にわかるように正確に説明できたらどうだろうと考えた。

深層学習の成果は、研究者たちがニューラル・ネットワークにさまざまな調整を加えた結果として得られている。最高のニューラル・ネットワークは、よりよい結果を出すために微調整や改良がされており、実際的な成果に理論的な理解が追いついていない。結果として、訓練済みのモデルがどのように動作するのかについて詳しいことは分かっておらず、その仕組みは「ブラックボックス」と考えられるようになった。

囲碁のプレイや文章翻訳、それに一気見するネットフリックス番組のセレクトなどでは、モデルの詳しい仕組みを知らなくても問題ないことが多い。しかし、AIを使用して司法や医療診断、無人乗用車の意思決定を支援する場合は、AIが決定に至った過程を理解し、AIが間違っていたら、そのことを知る必要がある。

自動意思決定に対して反対したり、拒否したりする権限を人間が持つ必要があると語るのは、マサチューセッツ州ウィリアムズタウンにあるウィリアムズ大学のコンピューター科学者、アイリス・ハウリー助教授だ。この権限がなければ、人々はAIテクノロジーに反感を抱くだろう。「現在の顔認識システムに対する世の中の反応が良い例です」とハウリー助教授は言う。

AIのブラックボックスの中身を確認できるようにAIの説明能力の向上を目指す研究者はまだ多くないが、増えてきている。エーサンもその1人だ。解釈可能または説明可能なAI(XAI)と呼ばれるこの研究分野の目的は、ニューラル・ネットワークが実際にデータのどの特徴を学習しているのかを人々が理解できるようにすることだ。結果として、完成したモデルが偏りのない正確なものであるかどうかを判断できるようになる。

1つの解決策は、AIの意思決定過程を示す機械学習システムを構築することだ。こうしたシステムは、これまでのブラックボックス型AIに対して、グラスボックス型AIと呼ばれる。グラスボックス型AIのモデルは一般的に、非常にシンプルなニューラル・ネットワークであり、異なる一部のデータがモデルに与える影響を簡単に追跡できる。

「利害の大きい状況では、グラスボックス化された機械学習モデルを使用すべきだと主張する人たちがいます」と語るのは、マイクロソフト・リサーチのコンピューター科学者であるジェニファー・ウォートマン・ヴォーン主任研究員だ。「私はその意見にほぼ賛成です」とヴォーン主任研究員は言う。グラスボックス化されたシンプルな機械学習モデルでも、統計表などの特定のタイプの構造化データを使った複雑なニューラル・ネットワークを実行できる。アプリケーションによってはこれで十分だ。

しかし、十分かどうかはアプリケーションが扱う領域次第だ。画像やテキストなどの煩雑なデータを使って学習したい場合、深層の、したがって不透明なニューラル・ネットワークを使わざるを得ない。こうしたニューラル・ネットワークが持つ、非常に多くのまったく異なるデータ特性から意味のある関係を引き出す能力は、ニューラル・ネットワークの複雑さと密接な関係がある。

こういった場合でも、グラスボックス型機械学習が役立つことがある。1つの解決策は、訓練データを使った2段階学習だ。まず、デバッグ段階として不完全なグラスボックス型機械学習モデルを訓練し、修正の必要があるかもしれない潜在的なエラーを発見する。そして、データを …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
人気の記事ランキング
  1. AI can make you more creative—but it has limits 生成AIは人間の創造性を高めるか? 新研究で限界が明らかに
  2. Promotion Call for entries for Innovators Under 35 Japan 2024 「Innovators Under 35 Japan」2024年度候補者募集のお知らせ
  3. Interview with Prof. Masayuki Ohzeki: The Future of Quantum Computer Commercialization and the Qualities of Innovators 量子技術を最速で社会へ、大関真之教授が考えるイノベーターの条件
  4. How to fix a Windows PC affected by the global outage 世界規模のウィンドウズPCトラブル、IT部門「最悪の週末」に
  5. Robot-packed meals are coming to the frozen-food aisle 「手作業が早い」食品工場でもロボット化、盛り付け完璧に
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年も候補者の募集を開始しました。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る