ググった結果からも学ぶ、ディープマンドのチャットボット
グーグル傘下のAI企業であるディープマインドは、人間のフィードバックから学習し、主張の裏付けとなる情報をインターネットから検索するように訓練したチャットボットを発表した。 by Melissa Heikkilä2022.09.27
アルファベット(グーグル)傘下の人工知能(AI)研究所、ディープマインド(DeepMind)の新しい論文によると、AIを搭載した優れたチャットボットを生み出す秘訣は、人間に振る舞い方を教えてもらい、さらにインターネットを利用して自身の回答を裏付けるように強制することだという。

- この記事はマガジン「量子時代のコンピューティング」に収録されています。 マガジンの紹介
9月22日の新しい査読前論文で、研究チームはディープマインドの大規模言語モデル「チンチラ(Chinchilla)」で訓練したAIチャットボット「スパロー(Sparrow)」を発表した。
スパローは人間と会話しながらその場でグーグル検索を実行したり、情報を使ったりして回答するように設計されている。その回答が人間にどれだけ有用だったかということに基づいて、特定の目的を達成するために試行錯誤して学習する強化学習アルゴリズムで訓練される。このシステムは、自傷他害を促すなどの危険な結果をもたらすことなく、人間と会話できるAI開発の一助となることを目指すものだ。
大規模言語モデルは、人間が書いたかのような文章を生成する。文章の要約や、より強力なネット検索ツールの構築、カスタマー・サービス用チャットボットで使われる大規模言語モデルが、インターネット・インフラにおいて果たす役割はますます重要になっている。
だが、大規模言語モデルはインターネットから大量のデータやテキストをかき集めて訓練されるため、不可避的に多くの有害なバイアスを反映してしまう。有害コンテンツや差別的コンテンツを吐き出す前に、とがめられることはほとんどない。そのため、人間と会話するように構築されたAIでは、悲惨な結果を招きかねない。安全対策を適切に施していない会話型AIは、例えば少数民族にとって攻撃的な言葉を使ったり、自殺の方法を提供したりする恐れがある。
…
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
