肩透かしだったGPT-5、オープンAIの方針転換に危うさ
オープンAIが華々しく発表したGPT-5は、画期的ブレークスルーというより普通の製品アップデートに近いものだった。「汎用知能」が依然として手の届かない状況にある中、同社は特定分野への応用拡大に重点を移している。 by James O'Donnell2025.08.13
- この記事の3つのポイント
-
- オープンAIがGPT-5を発表したが期待外れの結果となった
- 同社は健康アドバイス分野でのAI活用を強く推奨し始めた
- AI企業の責任問題が未解決のまま医療分野への進出が進んでいる
オープンAI(OpenAI)が先週、GPT-5を発表する前、サム・アルトマンCEOは、自分が「AIに比べて役に立たない」と感じたと述べた。彼はまた、GPT-5の開発に取り組むことは原子爆弾の開発者たちが感じたであろう重責を背負っていると語った。
巨大テック企業が多かれ少なかれ同じようなモデルに収束する中、オープンAIの新たな提供サービスは、AIの最新のフロンティアを垣間見せるものとされていた。それは、テック業界の伝道師たちが人類をより良い方向に変革すると約束してきた、「汎用人工知能(AGI)」への飛躍を示すものであった。
こうした期待に反して、このモデルはおおむね期待外れの結果となっている。
GPT-5の応答における明らかな誤りを指摘する声が上がり、これはローンチ時にアルトマンCEOが述べた「必要に応じてあらゆる分野における正当な博士レベルの専門家のように機能する」という主張に反している。初期テスターらは、GPT-5がユーザーの質問に最適なAIモデルの種類を自動的に判断するというオープンAIの約束についても問題を発見している。これは、より複雑なクエリには推論モデルを、より単純なものには高速モデルを使用するというものである。アルトマンCEOはこの機能に欠陥があり、ユーザーのコントロールを奪っていることを認めたようだ。しかし、良いニュースもある。このモデルは、ChatGPT(チャットGPT)がユーザーに過剰にへつらうという問題を緩和したようであり、GPT-5はユーザーを過度な賛辞で褒め立てる可能性が低くなっている。
全体的に、本誌のグレース・ハッキンズの記事が指摘したように、この新リリースはAIで可能なことを再構築する画期的なものというよりも、ChatGPTとの会話をより洗練された美しいものにするための製品アップデートの意味合いが強い。
しかし、これらすべてから学ぶべきことがもう一つある。しばらくの間、AI企業は自社のモデルがどのように使われるべきかを具体的に提案してこなかった。代わりに、可能な限り最も賢いモデル、いわば「脳」を構築し、それが幅広い分野で優れた性能を発揮すると信じるという方針であった。詩を書くことも有機化学を扱うことも自然にできるようになるだろうという考えである。そして、それを実現するのは、より大規模なモデル、優れた訓練手法、技術的ブレークスルーだと見なされてきた。
状況は変わりつつある。現在の戦略は、特定のアプリケーションを大々的に宣伝することで既存のモデルの利用範囲を広げることだ。例えば、企業は自社のAIモデルが人間のコーダーに取って代わることができると積極的に主張している(初期の証拠がそうではないことを示しているにもかかわらずだ)。この方向転換の一因として考えられるのは、巨大テック企業が期待していたようなブレークスルーを単純に達成できていない、ということである。しばらくは大規模言語モデルの能力向上がわずかな改善にとどまる可能性が高い。その結果、AI企業に残された選択肢は「今あるもので勝負する」ことになる。
GPT-5の発表において最も顕著な例は、オープンAIがAIにとって最も問題の多い分野の一つである、健康アドバイスにGPT-5を活用することを強く推奨している点である。
当初、オープンAIは医療に関する質問にはほとんど応じなかった。ChatGPTに健康について質問しようとすると、自分は医師ではないという警告を含む多数の免責事項が表示され、一部の質問には一切の回答を拒否することもあった。しかし、私が最近報じたように、新しいモデルがリリースされるにつれて、こうした免責事項は姿を消し始めた。同社のモデルは現在、X線画像やマンモグラフィーを解釈するだけでなく、診断に向けたフォローアップの質問までもするようになっている。
5月、オープンAIは医療分野に正面から取り組む意向を示した。同社は、医師の意見と照らし合わせてAIシステムが健康関連トピックをどの程度適切に扱えるかを評価する手法である「ヘルスベンチ(HealthBench)」を発表した。7月には、同社が関与した研究を発表し、ケニアの医師グループがAIモデルの支援を受けた際に診断ミスが減少したと報告した。
GPT-5の発表に伴い、オープンAIは人々に健康に関するアドバイスを得るために同社のモデルを利用することを明確に推奨し始めた。発表イベントでは、アルトマンCEOが、同社の社員であるフェリペ・ミロンと、複数のがんと最近診断された彼の妻のカロライナ・ミロンをステージに招いた。カロライナは診断に際してChatGPTに助けを求めた経験を語り、生検結果のコピーをChatGPTにアップロードして医学専門用語を翻訳してもらい、放射線治療を受けるかどうかといった判断についてAIの助言を得たと述べた。3人はこれを、医師と患者の間の知識格差を縮める力を持つ事例と呼んだ。
このアプローチの変化により、オープンAIは危険な領域に足を踏み入れている。
一つには、ケニアでの研究のように、医師がAIを臨床ツールとして活用できるという証拠を使って、医学的な知識をまったく持たない人々にも自分の健康についてAIモデルに助言を求めるべきだと提案している点だ。問題は、多くの人が医師に相談することなくこうした助言を求める可能性があることだ(しかも現在では、チャットボットが医師への相談を促すことはほとんどなくなっているため、その可能性はさらに低くなっている)。
実際、GPT-5の発売のわずか2日前、内科学年報(Annals of Internal Medicine)が、ChatGPTとの会話の後に塩分摂取をやめ、危険な量の臭化物を摂取し始めた男性についての論文を掲載した。この男性は臭化物中毒を発症したが、この中毒は1970年代に米国食品医薬品局(FDA)が市販薬での臭化物使用を規制し始めて以降、米国ではほぼ姿を消していたものである。男性は重症で、数週間の入院を余儀なくされた。
では、これらすべての要点は何だろうか。本質的には、説明責任の問題である。AI企業が汎用的な知能の提供を約束する段階から、医療のような特定分野で人間並みの有用性を提供する段階へと移行すると、誤りが発生した場合に何が起こるのかという、依然として答えられていない第二の疑問が生じる。現状では、テクノロジー企業がもたらした害に対して責任を負わされる兆候はほとんど見られない。
「医師が誤りや偏見によって有害な医療助言をした場合、患者は医療過誤で訴訟を起こし、賠償を得ることができます」。ノースカロライナ大学シャーロット校のダミアン・ウィリアムズ助教授(データ科学および哲学)は述べる。
「一方、ChatGPTが偏見に満ちたデータで訓練されているために、あるいは『幻覚(ハルシネーション)』がシステムの動作に内在しているために有害な医療助言を与えた場合、救済手段はあるのでしょうか?」
- 人気の記事ランキング
-
- This startup wants to use the Earth as a massive battery 「逆さま揚水発電」で長期蓄電、米スタートアップが実証
- The vibe coding’s impact: How AI-driven development is transforming the tech industry バイブコーディングの衝撃——AI駆動開発が迫るIT業界の大転換
- This startup wants to use beams of energy to drill geothermal wells ミリ波で地下20キロへ、 「掘削の再発明」で挑む 米スタートアップの地熱革命
- The two people shaping the future of OpenAI’s research オープンAI「2人の頭脳」 独占インタビューで語った AGI実現への道筋

- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。