KADOKAWA Technology Review
×
Nvidia Lets You Peer Inside the Black Box of Its Self-Driving AI

エヌビディア、「説明できるAI」へ向けた一歩を踏み出す

機械学習のAIシステムは多くの場合、どのような判断に基づいて結論を導き出したのかを説明できない。信頼のおけないテクノロジーを、医学や金融、軍事などの重要な分野に適用してよいのだろうか。 by Will Knight2017.06.29

半導体チップ・メーカーのエヌビディア(Nvidia)は、どのような仕組みで動いているのかがわかる自動運転の人工知能(AI)システムを開発している。

最近のカバーストーリー、「人類に残された、AIを信用しない、使わない、という選択肢」で説明したように、最も強力な機械学習手法で作られたソフトウェアは、多くの場合、なぜそう判断したのかを本質的に説明できず、開発したエンジニア自身にさえもわからない。AIは今後、医学から製造業にいたるまであらゆる分野に革命的な変化をもたらす可能性のあるテクノロジーだ。AIがどのような仕組みで動いているのかを調べる取り組みは、テクノロジーの信頼を築き上げるという点で非常に重要になるだろう。

エヌビディアが提供する半導体チップは深層学習に適しており、とりわけ強力な機械学習手法に最適だ。(「10 Breakthrough Technologies 2013: Deep Learning」参照)。

Nvidia's neural network software highlights the areas it's focusing on as it makes driving decisions.
エヌビディアのニューラル・ネットワークでは、自動運転の制御をする際に焦点を合わせている部分が強調される。

エヌビディアは、自動車メーカーが深層学習を自律運転にどのように適用できるのかを実証するためのシステムも開発している。このシステムには、深層学習のアルゴリズムだけで制御する自動車も含まれている。驚くことに、この自動車のコンピューターには、運転を制御するためのルールが一切与えられていない。複数のビデオカメラや人間のドライバーの行動などの入力情報に基づいて、どう運転すべきかを自動的に判断する。唯一の難点は、システムが複雑すぎるので、実際にどういう仕組みで動いているのかを解明するのが難しいことだ。

それでもエヌビディアは、ブラックボックスの中身を解明しようと研究に取り組んでいる。ニューラル・ネットワークが何に注意を払っているのかを、視覚的に強調する方法を開発しているのだ。最近の論文によると、エヌビディアの研究者が開発した深層ニューラル・ネットワークは、自動車の振る舞いに強い影響を与えているビデオ映像の箇所を強調する仕組みを備えている。実験の結果は驚くものだった。ニューラル・ネットワークは、道路の端側や車線区分、停車中の自動車など、良識のあるドライバーが注意を払うのとほとんど同じ箇所に焦点を合わせていたのである。

エヌビディア自動運転車部門のアース・ミュラー設計主任はブログの投稿記事で、「この実験で革新的なのは、ビデオ映像のどこに注意すればよいのかという情報を、私たちがコンピュータに直接与えなくても、ニューラル・ネットワークが取得していることを明らかにした点です」と述べている。

エヌビディアの実験でニューラル・ネットワークが判断する仕組みが完全に明らかになったわけではないが、出発点としては上出来だ。ミュラー設計主任は、「私たちは自動車にしてほしいことを完全に説明することはできませんが、示すことはできます。そして今では、自動車が何を学習したのかを教えてくれるのです」という。

こうした取り組みは、これからますます重要性を増すだろう。なぜなら深層学習は、医学や金融、軍事などの重要な分野をはじめとする、膨大なデータを扱うあらゆる問題に適用されようとしているからだ。

深層学習に関わるこうした問題に取り組んでいる研究者は、ほかにも何人かいる。たとえば、ワイオミング大学のジェフ・クルーン助教、ワシントン大学のカルロス・ゲストリン准教授とアップルは、分類システムが認識する画像の各箇所を強調する手法を見つけた。マサチューセッツ工科大学(MIT)のトーミ・ジャコラ教授レジーナ・バージレイ教授は、膨大な量の手書きデータから結論を導き出す際に、なぜそのような結論を出したのかを説明できるようなテキストの断片を併せて提供する手法を開発している。

アメリカ軍向けに長期の研究を手がける米国国防先端研究計画局(DARPA)は、説明可能なAI(Explainable Artificial Intelligence、XAI)と呼ばれるプログラムを通して、似たような研究活動に資金を投じている

AIの技術的な仕様だけに注目するのではなく、人間の知能と比較して考えてみるのも面白い。人間の取るさまざまな行動は完全には説明できない。説明できたとしても、大雑把であったり、起こっていることについての「作り話」に過ぎなかったりする場合が多い。複雑さを増す現在の機械学習手法の不透明さを前に、AIからの似たような説明を、受け入れざるを得なくなる日が来るのかもしれない。

(関連記事:エヌビディア、「人類に残された、AIを信用しない、使わない、という選択肢」「結論しか出さない機械学習システムでは使い物にならない」)

人気の記事ランキング
  1. This new image shows off magnetic fields swirling around a black hole 周囲の磁場くっきり、初撮影チームがブラックホール最新画像を公開
  2. What are the ingredients of Pfizer’s covid-19 vaccine? ファイザーの新型コロナワクチンの成分は?専門家が解説
  3. Covid-19 immunity likely lasts for years 新型コロナ、免疫は長期間持続か=米新研究
  4. Error-riddled datasets are warping our sense of how good AI really is AIモデル評価用データセットに多数の誤り、実は優秀ではなかった?
  5. So you got the vaccine. Can you still infect people? Pfizer is trying to find out. ワクチンを打っても マスクを外せない理由
ウィル ナイト [Will Knight]米国版 AI担当上級編集者
MITテクノロジーレビューのAI担当上級編集者です。知性を宿す機械やロボット、自動化について扱うことが多いですが、コンピューティングのほぼすべての側面に関心があります。南ロンドン育ちで、当時最強のシンクレアZX Spectrumで初めてのプログラムコード(無限ループにハマった)を書きました。MITテクノロジーレビュー以前は、ニューサイエンティスト誌のオンライン版編集者でした。もし質問などがあれば、メールを送ってください。
Innovators Under 35 Japan 2020

MITテクノロジーレビューが主催するグローバル・アワード「Innovators Under 35」が2020年、日本に上陸する。特定の分野や業界だけでなく、世界全体にとって重要かつ独創的なイノベーターを発信していく取り組みを紹介しよう。

記事一覧を見る
人気の記事ランキング
  1. This new image shows off magnetic fields swirling around a black hole 周囲の磁場くっきり、初撮影チームがブラックホール最新画像を公開
  2. What are the ingredients of Pfizer’s covid-19 vaccine? ファイザーの新型コロナワクチンの成分は?専門家が解説
  3. Covid-19 immunity likely lasts for years 新型コロナ、免疫は長期間持続か=米新研究
  4. Error-riddled datasets are warping our sense of how good AI really is AIモデル評価用データセットに多数の誤り、実は優秀ではなかった?
  5. So you got the vaccine. Can you still infect people? Pfizer is trying to find out. ワクチンを打っても マスクを外せない理由
MITテクノロジーレビュー[日本版] Vol.2/Winter 2020
MITテクノロジーレビュー[日本版] Vol.2/Winter 2020SDGs Issue

今、世界中の企業や機関の技術者・研究者たちが各地で抱える社会課題を解決し、持続可能な世界の実現へ向けて取り組んでいる「SDGs(持続可能な開発目標)」。
気候変動や貧困といった地球規模の課題の解決策としての先端テクノロジーに焦点を当て、解決に挑む人々の活動や、日本企業がSDGsを経営にどう取り入れ、取り組むべきか、日本が国際社会から期待される役割について、専門家の提言を紹介します。

詳細を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る