人工知能(AI)システムが研究室から現実世界へと導入される中で、AIシステムが思いもしない方法で現実世界に介入し、悲惨な結果をもたらす事態に備える必要が生じている。ウィスコンシン大学マディソン校で助教授を務めるシャロン・リーは、「分布外(out-of-distribution:OOD)検知」と呼ばれるAI安全機能の草分け的存在だ。「こうした機能は、AIモデルが訓練されていない状況に直面した際に、行動を慎むタイミングを判断するのに役立ちます」と、リーは説明する。
リーは、深層ニューラルネットワーク向けのOOD検知アルゴリズムの最初の一つを開発した。それを受けてグーグルは、OOD検知を自社製品に組み込むための専門チームを編成した。昨年、OOD検知に関するリーの理論解析は、もっとも権威あるAI会議の一つである「NeurIPS(神経情報処理システム)」で、1万を超える論文の中から傑出した研究に選ばれた。
現在はAIの「ゴールドラッシュ」時代を迎えており、テック各社は競い合うように独自のAIモデルを発表している。だが、現行のモデルのほとんどは特定のものを識別するように訓練されているため、乱雑で予測できない現実世界でよくある未知の状況に遭遇した際に失敗することも多い。多くのAIトラブルの背後には、自分が「知っている」ものと「知らない」ものを確実に判別できないというAIの弱点がある。
リーの手法では、機械学習を用いて不確実性を考慮する。機械学習で未知のデータを世界から検知し、即座に対応できるようにAIモデルを設計するのだ。OOD検知によって、自律自動車が路上で未知の物体に遭遇した際に事故が起こるのを防いだり、医療AIシステムが新たな疾患を見つける能力を向上させたりできる可能性がある。 「こうしたすべての状況において、真に必要なのは、自分が知らないことを判別できる、安全を認識した機械学習モデルなのです」とリーは話す。
(メリッサ・ヘイッキラ)
- 人気の記事ランキング
-
- A new US phone network for Christians aims to block porn and gender-related content ポルノもLGBTも遮断、キリスト教徒向けMVNOが米国で登場
- The problem with thinking you’re part Neanderthal あなたの中にいる 「ネアンデルタール人」は 本当に存在するのか?
- Musk v. Altman week 1: Elon Musk says he was duped, warns AI could kill us all, and admits that xAI distills OpenAI’s models 「オープンAIを蒸留した」マスク対アルトマン第1週、法廷がざわめく
- Will fusion power get cheap? Don’t count on it. 核融合は本当に安くなるのか? 楽観論に「待った」をかける新研究