画面共有でバレたセラピストの「カンニング」、AI丸投げ問題の本質
患者のプライベートな告白を、密かにChatGPT(チャットGPT)に入力して回答の参考にしているセラピストがいることが分かった。テック企業は、AIのこうした使い方は人々にとって有用であるとしているが、実際にはどうなのだろうか。 by James O'Donnell2025.09.12
- この記事の3つのポイント
-
- セラピストがChatGPTを患者に無断で密かに使用し発覚する事例が相次いで報告されている
- メンタルヘルス専用AIの臨床試験は有望だが汎用AIの無許可使用は信頼関係を損なう
- 米国では治療判断でのAI使用禁止法が制定され始めておりさらなる規制強化が予想される
シリコンバレーが描く未来では、人工知能(AI)モデルは非常に共感的で、私たちはそうしたモデルをセラピストとして使用するようになる。AIは何百万人もの人々にメンタルヘルスケアを提供し、大学院の学位、医療過誤保険、睡眠といった人間のカウンセラーに必要な厄介な要件に妨げられることもない。しかし、実際には、まったく異なることが起こっている。
先日、私たちは、セラピストがセッション中に密かにChatGPT(チャットGPT)を使用していることを患者が発見したという内容の記事を公開した。中には露骨なケースもあった。あるセラピストがバーチャル診療中に誤って画面を共有してしまい、患者は自分のプライベートな考えがリアルタイムでChatGPTに入力されているのを目撃した。そしてモデルが提案した回答を、そのセラピストがオウム返しに話していたのである。
これは最近の私のお気に入りのAIに関する記事である。おそらく、テック企業がほぼ推奨している方法で人々が実際にAIを使用したときに展開される混乱を、非常に見事に捉えているからだ。
この記事を書いたジャーナリストのローリー・クラークが指摘するように、AIが治療的に有用である可能性は完全な夢物語ではない。今年の初め、私は治療専用に構築されたAIボットの初の臨床試験について書いた。結果は有望だった。しかし、メンタルヘルス用に検証されていないAIモデルをセラピストが秘密裏に使用することは、まったく別の問題である。記事を執筆したクラークにさらに詳しい話を聞いた。
◆
——セラピストがAIを密かに使用していることを発見した後、人々がセラピストを糾弾したことに本当に興味を引かれました。これらのセラピストの反応をどう解釈しましたか? 彼らは隠そうとしていたのでしょうか?
記事で言及したすべてのケースにおいて、セラピストは患者に対してAIをどのように使用しているかを事前に開示していませんでした。明確に隠そうとしていたかどうかに関わらず、発覚したときにはそのように見えてしまったのです。このことから、記事を書いて得た主な教訓の一つは、セラピストはAIを使用する予定がある場合、絶対にその旨とその方法を開示すべきだということです。そうしなければ、発覚したときに患者にとって非常に不快な疑問が生じ、築かれた信頼関係を取り返しのつかないほど損なうリスクがあります。
——あなたが出会った事例では、セラピストは単純に時間節約のためにAIに頼っているのでしょうか? それとも、AIモデルが患者の悩みについて真に新しい視点を与えてくれると考えているのでしょうか?
一部の人はAIを潜在的な時間節約手段と見なしています。何人かのセラピストから、記録作成が彼らの生活の悩みの種だと聞きました。そのため、これをサポートできるAI搭載ツールへの関心はあると思います。私が話した大部分の人は、患者の治療方法についてのアドバイスにAIを使用することには非常に懐疑的でした。彼らは、スーパーバイザーや同僚、または文献のケーススタディに頼る方が良いと述べていました。さらに、これらのツールに機密データを入力することを当然ながら非常に警戒していました。
AIが認知行動療法のような、より標準化された「マニュアル化された」治療を合理的に効果的に提供できるという証拠がいくつかあります。そのため、その用途にはより有用である可能性があります。しかし、それはそのために特別に設計されたAIであり、ChatGPTのような汎用ツールではありません。
——これが間違った方向に進んだ場合、何が起こるでしょうか?倫理団体や議員からどのような注目を集めているのでしょうか?
現在、米国カウンセリング協会(American Counseling Association)のような専門団体は、患者の診断にAIツールを使用することに反対を表明しています。将来的には、これを防ぐより厳格な規制も作られる可能性があります。例えば、ネバダ州とイリノイ州は最近、治療上の意思決定におけるAIの使用を禁止する法律を可決しました。より多くの州が続く可能性があります。
——オープンAI(OpenAI)のサム・アルトマンは先月、「多くの人が事実上、ChatGPTを一種のセラピストとして使用しています」と投稿しました。そして彼にとってそれは良いことだと言っています。テック企業は私たちに役立つAIの能力について過大な約束をしていると思いますか?
テック企業は、このようなAIの使用は、一部の人々が自社の製品に愛着を形成するのに明らかに有効であるとして、微妙に奨励していると思います。主な問題は、人々がこれらのツールから得ているものは、どう考えても本当の「治療」ではないということです。良い治療は、誰かの発言をなだめ、すべてを肯定することをはるかに超えています。私はこれまで、実際の対面での治療セッションを楽しみにしたことは一度もありません。セッションはしばしば非常に不快で、苦痛でさえあります。しかし、それが要点の一部なのです。セラピストは患者に挑戦し、その内面を引き出し、理解しようと努めるべきです。ChatGPTはこれらのことを何一つしません。
- 人気の記事ランキング
-
- This American nuclear company could help India’s thorium dream インドが描いた「トリウムの夢」、米企業の燃料技術で花開くか
- How to run an LLM on your laptop チャットGPTからの卒業:自分のパソコンでLLMを動かしてみよう
- How these two brothers became go-to experts on America’s “mystery drone” invasion 頻発する謎のドローン事件、 警察・FBIも頼る 「UFOハンター」兄弟
- It’s pretty easy to get DeepSeek to talk dirty 「お堅い」Claude、性的会話に応じやすいAIモデルは?

- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。