KADOKAWA Technology Review
×
「Innovators Under 35 Japan」2024年度候補者募集中!
Nvidia Lets You Peer Inside the Black Box of Its Self-Driving AI

エヌビディア、「説明できるAI」へ向けた一歩を踏み出す

機械学習のAIシステムは多くの場合、どのような判断に基づいて結論を導き出したのかを説明できない。信頼のおけないテクノロジーを、医学や金融、軍事などの重要な分野に適用してよいのだろうか。 by Will Knight2017.06.29

半導体チップ・メーカーのエヌビディア(Nvidia)は、どのような仕組みで動いているのかがわかる自動運転の人工知能(AI)システムを開発している。

最近のカバーストーリー、「人類に残された、AIを信用しない、使わない、という選択肢」で説明したように、最も強力な機械学習手法で作られたソフトウェアは、多くの場合、なぜそう判断したのかを本質的に説明できず、開発したエンジニア自身にさえもわからない。AIは今後、医学から製造業にいたるまであらゆる分野に革命的な変化をもたらす可能性のあるテクノロジーだ。AIがどのような仕組みで動いているのかを調べる取り組みは、テクノロジーの信頼を築き上げるという点で非常に重要になるだろう。

エヌビディアが提供する半導体チップは深層学習に適しており、とりわけ強力な機械学習手法に最適だ。(「10 Breakthrough Technologies 2013: Deep Learning」参照)。

Nvidia's neural network software highlights the areas it's focusing on as it makes driving decisions.
エヌビディアのニューラル・ネットワークでは、自動運転の制御をする際に焦点を合わせている部分が強調される。

エヌビディアは、自動車メーカーが深層学習を自律運転にどのように適用できるのかを実証するためのシステムも開発している。このシステムには、深層学習のアルゴリズムだけで制御する自動車も含まれている。驚くことに、この自動車のコンピューターには、運転を制御するためのルールが一切与えられていない。複数のビデオカメラや人間のドライバーの行動などの入力情報に基づいて、どう運転すべきかを自動的に判断する。唯一の難点は、システムが複雑すぎるので、実際にどういう仕組みで動いているのかを解明するのが難しいことだ。

それでもエヌビディアは、ブラックボックスの中身を解明しようと研究に取り組んでいる。ニューラル・ネットワークが何に注意を払っているのかを、視覚的に強調する方法を開発しているのだ。最近の論文によると、エヌビディアの研究者が開発した深層ニューラル・ネットワークは、自動車の振る舞いに強い影響を与えているビデオ映像の箇所を強調する仕組みを備えている。実験の結果は驚くものだった。ニューラル・ネットワークは、道路の端側や車線区分、停車中の自動車など、良識のあるドライバーが注意を払うのとほとんど同じ箇所に焦点を合わせていたのである。

エヌビディア自動運転車部門のアース・ミュラー設計主任はブログの投稿記事で、「この実験で革新的なのは、ビデオ映像のどこに注意すればよいのかという情報を、私たちがコンピュータに直接与えなくても、ニューラル・ネットワークが取得していることを明らかにした点です」と述べている。

エヌビディアの実験でニューラル・ネットワークが判断する仕組みが完全に明らかになったわけではないが、出発点としては上出来だ。ミュラー設計主任は、「私たちは自動車にしてほしいことを完全に説明することはできませんが、示すことはできます。そして今では、自動車が何を学習したのかを教えてくれるのです」という。

こうした取り組みは、これからますます重要性を増すだろう。なぜなら深層学習は、医学や金融、軍事などの重要な分野をはじめとする、膨大なデータを扱うあらゆる問題に適用されようとしているからだ。

深層学習に関わるこうした問題に取り組んでいる研究者は、ほかにも何人かいる。たとえば、ワイオミング大学のジェフ・クルーン助教、ワシントン大学のカルロス・ゲストリン准教授とアップルは、分類システムが認識する画像の各箇所を強調する手法を見つけた。マサチューセッツ工科大学(MIT)のトーミ・ジャコラ教授レジーナ・バージレイ教授は、膨大な量の手書きデータから結論を導き出す際に、なぜそのような結論を出したのかを説明できるようなテキストの断片を併せて提供する手法を開発している。

アメリカ軍向けに長期の研究を手がける米国国防先端研究計画局(DARPA)は、説明可能なAI(Explainable Artificial Intelligence、XAI)と呼ばれるプログラムを通して、似たような研究活動に資金を投じている

AIの技術的な仕様だけに注目するのではなく、人間の知能と比較して考えてみるのも面白い。人間の取るさまざまな行動は完全には説明できない。説明できたとしても、大雑把であったり、起こっていることについての「作り話」に過ぎなかったりする場合が多い。複雑さを増す現在の機械学習手法の不透明さを前に、AIからの似たような説明を、受け入れざるを得なくなる日が来るのかもしれない。

(関連記事:エヌビディア、「人類に残された、AIを信用しない、使わない、という選択肢」「結論しか出さない機械学習システムでは使い物にならない」)

人気の記事ランキング
  1. AI can make you more creative—but it has limits 生成AIは人間の創造性を高めるか? 新研究で限界が明らかに
  2. Promotion Call for entries for Innovators Under 35 Japan 2024 「Innovators Under 35 Japan」2024年度候補者募集のお知らせ
  3. A new weather prediction model from Google combines AI with traditional physics グーグルが気象予測で新モデル、機械学習と物理学を統合
  4. How to fix a Windows PC affected by the global outage 世界規模のウィンドウズPCトラブル、IT部門「最悪の週末」に
  5. The next generation of mRNA vaccines is on its way 日本で承認された新世代mRNAワクチン、従来とどう違うのか?
ウィル ナイト [Will Knight]米国版 AI担当上級編集者
MITテクノロジーレビューのAI担当上級編集者です。知性を宿す機械やロボット、自動化について扱うことが多いですが、コンピューティングのほぼすべての側面に関心があります。南ロンドン育ちで、当時最強のシンクレアZX Spectrumで初めてのプログラムコード(無限ループにハマった)を書きました。MITテクノロジーレビュー以前は、ニューサイエンティスト誌のオンライン版編集者でした。もし質問などがあれば、メールを送ってください。
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年も候補者の募集を開始しました。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る