人工知能(AI)システムが研究室から現実世界へと導入される中で、AIシステムが思いもしない方法で現実世界に介入し、悲惨な結果をもたらす事態に備える必要が生じている。ウィスコンシン大学マディソン校で助教授を務めるシャロン・リーは、「分布外(out-of-distribution:OOD)検知」と呼ばれるAI安全機能の草分け的存在だ。「こうした機能は、AIモデルが訓練されていない状況に直面した際に、行動を慎むタイミングを判断するのに役立ちます」と、リーは説明する。
リーは、深層ニューラルネットワーク向けのOOD検知アルゴリズムの最初の一つを開発した。それを受けてグーグルは、OOD検知を自社製品に組み込むための専門チームを編成した。昨年、OOD検知に関するリーの理論解析は、もっとも権威あるAI会議の一つである「NeurIPS(神経情報処理システム)」で、1万を超える論文の中から傑出した研究に選ばれた。
現在はAIの「ゴールドラッシュ」時代を迎えており、テック各社は競い合うように独自のAIモデルを発表している。だが、現行のモデルのほとんどは特定のものを識別するように訓練されているため、乱雑で予測できない現実世界でよくある未知の状況に遭遇した際に失敗することも多い。多くのAIトラブルの背後には、自分が「知っている」ものと「知らない」ものを確実に判別できないというAIの弱点がある。
リーの手法では、機械学習を用いて不確実性を考慮する。機械学習で未知のデータを世界から検知し、即座に対応できるようにAIモデルを設計するのだ。OOD検知によって、自律自動車が路上で未知の物体に遭遇した際に事故が起こるのを防いだり、医療AIシステムが新たな疾患を見つける能力を向上させたりできる可能性がある。 「こうしたすべての状況において、真に必要なのは、自分が知らないことを判別できる、安全を認識した機械学習モデルなのです」とリーは話す。
(メリッサ・ヘイッキラ)
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
