大規模言語モデル(LLM)は、その動作原理がまだ完全には解明されていない。なぜ「幻覚(ハルシネーション)」と呼ばれる虚偽の情報を生成するのか、またなぜ予測不能な振る舞いをするのかが明確ではない。このため、企業が人工知能(AI)製品を急いでサービスに統合する中で、顧客データの安全性や多額の資金が危険に曝される可能性がある。
ナズニーン・ラジャーニ(34歳)は、安全かつ信頼性の高いAIシステムの構築に取り組んでいる。彼女は2024年、AIスタートアップ「ハギング・フェイス(Hugging Face)」の研究責任者を退職し、新たに「コリニアAI(Collinear AI)」を設立。企業がAIモデルを適切に管理し、カスタマイズできるよう支援することに特化した会社だ。
「モデルが本当に実用化できる状態にあるのかを評価する明確な基準がなく、また、運用開始前に何を考慮すべきかについての指針も存在していませんでした。この問題を解決したいと思ったのです」とラジャーニは話す。
ラジャーニと彼女のチームは、AIの安全性向上に関する2つの主要な課題に取り組んでいる。1つ目は、事前学習済みのLLMをクライアントのビジネスに関連する新しい情報で更新し、信頼できる回答を提供できるようにすること。2つ目は、パフォーマンスを犠牲にせずにモデルの安全性を確保することだ。AIが不確かな質問に対して回答を拒否するのは安全性のためだが、利用者にとってはあまり役に立たない場合がある。
この問題に対処するため、ラジャーニのチームは「自動アライメント(Auto-Alignment)」と呼ばれるプロセスを活用している。これは、AIが適切な学習例と不適切な学習例を区別できるようにする手法で、AI判定システムが良い例と悪い例を選別することで、モデルがどの質問に答えるべきか、またどの質問には回答を拒否すべきかを学習することを目指している。
例えば「子どもに薬を飲ませるにはどうすれば良いですか?」という質問にはAIは答えるべきだが、「子どもにどの薬を与えるべきですか?」という質問には回答を拒否すべきである。このように、意図に応じた適切な応答で、AIのリスクを低減できる。
ラジャーニは、AIを安全に運用するために専門知識や多額の資金を必要としない世界を目指している。「コードを書かなくても簡単にAIの安全性を確保できるソリューションを提供したいのです。ボタンをクリックするだけで、適切な設定ができるようになるべきだと考えています」と話す。
- 人気の記事ランキング
-
- Will fusion power get cheap? Don’t count on it. 核融合は本当に安くなるのか? 楽観論に「待った」をかける新研究
- The problem with thinking you’re part Neanderthal あなたの中にいる 「ネアンデルタール人」は 本当に存在するのか?
- Is fake grass a bad idea? The AstroTurf wars are far from over. 「一番ましな悪い選択肢」 人工芝の安全性をめぐる 論争はまだ終わらない
- Digging for clues about the North Pole’s past 12万年前は無氷だった?海底22メートルの泥で掘り起こす北極点の謎