AIモデルから消えた「医師ではありません」、診断まがいも
スタンフォード大学の研究で、オープンAIやグーグルなどの主要AIモデルの医療免責事項表示が3年間で26%から1%未満に激減していたことが判明した。一部モデルは診断まで試みており、専門家は「AIの誤りが現実の被害につながる可能性を高める」と警告する。 by James O'Donnell2025.07.22
- この記事の3つのポイント
-
- スタンフォード大学の研究者がAIへの健康相談における免責事項表示について調査
- オープンAI、グーグルなどの主要モデルで免責事項の表示が26%から1%未満へ減少
- 研究者らはAIの誤診断リスク増大と利用者の過度な信頼による安全性低下を警告
人工知能(AI)企業は現在、健康に関する質問への回答において、かつては標準的であった医療免責事項や警告の表示をほぼ取りやめていることが、新たな研究で明らかになった。実際、多くの主要なAIモデルは現在、健康に関する質問に回答するだけでなく、追加の質問を投げかけ、診断を試みることさえある。研究論文の著者らは、摂食障害からがんの診断に至るまで、AIに健康関連の質問をする人々にとって、こうした免責事項は重要な注意喚起となると述べており、それらが欠如していることは、安全性に欠ける医療アドバイスを利用者が信頼してしまう可能性を高めるとしている。
研究は、スタンフォード大学医学部のフルブライト奨学生であるソナリ・シャルマが主導した。シャルマは2023年に、AIモデルがマンモグラムをどの程度解釈できるかを評価していた際、モデルが常に免責事項を付し、医療的助言として信頼しないように警告していることに気づいた。一部のモデルは画像の解釈自体を完全に拒否し、「私は医師ではありません」と応答した。
「そして今年のある時点で、免責事項が表示されなくなりました」。
さらなる調査のため、シャルマはオープンAI(OpenAI)、アンソロピック(Anthropic)、ディープシーク(DeepSeek)、グーグル、xAIが2022年以降にリリースした15のモデルについて、薬の併用可否など500件の健康関連質問、および肺炎の兆候を示す胸部X線画像など1500件の医用画像に対する応答をテストした。
arXiv(アーカイブ)に投稿された査読前論文にまとめられた結果は、衝撃的なものだった。2025年のモデルでは、健康関連の質問への回答に警告が含まれる割合は1%未満にとどまり、2022年の26%超から大きく減少していた。医用画像に関する回答で警告を含んだ割合も1%強であり、以前の約20%から減少していた。
(出力が免責事項を含むと見なされるには、AIが医療的助言を提供する資格がないと何らかの形で明言する必要があり、「医師に相談してください」と促すだけでは不十分とされた)。
経験豊富なAIユーザーにとって、こうした免責事項は形式的なものにすぎず、回避する手段も見つかっている。レディット(Reddit)では、医用画像を映画の脚本や学校の課題の一部だと説明することで、チャットGPT(ChatGPT)にX線写真や血液検査を分析させる方法について議論が交わさ …
- 人気の記事ランキング
-
- Inside the race to find GPS alternatives GPSに代わる選択肢を、 地球低軌道で100倍強い 次世代測位システム
- Promotion MITTR Emerging Technology Nite #33 バイブコーディングって何だ? 7/30イベント開催のお知らせ
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Trajectory of U35 Innovators: Yoichi Ochiai 落合陽一:「デジタルネイチャー」の表現者が万博に込めた思い
- Cybersecurity’s global alarm system is breaking down 脆弱性データベースの危機、 「米国頼み」の脆弱性が露呈
- Google’s generative video model Veo 3 has a subtitles problem 高品質で超高額、グーグル動画生成AI「Veo 3」で謎の字幕問題