シャロン・リー(ウィスコンシン大学マディソン校)

Sharon Li シャロン・リー(ウィスコンシン大学マディソン校)

訓練に用いられていない状況にAIが遭遇したことを検出する「安全機能」研究のパイオニア。現実世界でのAIのトラブルを防ぐ。 by MIT Technology Review Editors2023.10.18

人工知能(AI)システムが研究室から現実世界へと導入される中で、AIシステムが思いもしない方法で現実世界に介入し、悲惨な結果をもたらす事態に備える必要が生じている。ウィスコンシン大学マディソン校で助教授を務めるシャロン・リーは、「分布外(out-of-distribution:OOD)検知」と呼ばれるAI安全機能の草分け的存在だ。「こうした機能は、AIモデルが訓練されていない状況に直面した際に、行動を慎むタイミングを判断するのに役立ちます」と、リーは説明する。

リーは、深層ニューラルネットワーク向けのOOD検知アルゴリズムの最初の一つを開発した。それを受けてグーグルは、OOD検知を自社製品に組み込むための専門チームを編成した。昨年、OOD検知に関するリーの理論解析は、もっとも権威あるAI会議の一つである「NeurIPS(神経情報処理システム)」で、1万を超える論文の中から傑出した研究に選ばれた。

現在はAIの「ゴールドラッシュ」時代を迎えており、テック各社は競い合うように独自のAIモデルを発表している。だが、現行のモデルのほとんどは特定のものを識別するように訓練されているため、乱雑で予測できない現実世界でよくある未知の状況に遭遇した際に失敗することも多い。多くのAIトラブルの背後には、自分が「知っている」ものと「知らない」ものを確実に判別できないというAIの弱点がある。

リーの手法では、機械学習を用いて不確実性を考慮する。機械学習で未知のデータを世界から検知し、即座に対応できるようにAIモデルを設計するのだ。OOD検知によって、自律自動車が路上で未知の物体に遭遇した際に事故が起こるのを防いだり、医療AIシステムが新たな疾患を見つける能力を向上させたりできる可能性がある。 「こうしたすべての状況において、真に必要なのは、自分が知らないことを判別できる、安全を認識した機械学習モデルなのです」とリーは話す。

(メリッサ・ヘイッキラ)