KADOKAWA Technology Review
×
【夏割】年間購読料が今なら20%オフ!お得なキャンペーン実施中
画面共有でバレたセラピストの「カンニング」、AI丸投げ問題の本質
Stephanie Arnett/MIT Technology Review | Adobe Stock
Help! My therapist is secretly using ChatGPT

画面共有でバレたセラピストの「カンニング」、AI丸投げ問題の本質

患者のプライベートな告白を、密かにChatGPT(チャットGPT)に入力して回答の参考にしているセラピストがいることが分かった。テック企業は、AIのこうした使い方は人々にとって有用であるとしているが、実際にはどうなのだろうか。 by James O'Donnell2025.09.12

この記事の3つのポイント
  1. セラピストがChatGPTを患者に無断で密かに使用し発覚する事例が相次いで報告されている
  2. メンタルヘルス専用AIの臨床試験は有望だが汎用AIの無許可使用は信頼関係を損なう
  3. 米国では治療判断でのAI使用禁止法が制定され始めておりさらなる規制強化が予想される
summarized by Claude 3

シリコンバレーが描く未来では、人工知能(AI)モデルは非常に共感的で、私たちはそうしたモデルをセラピストとして使用するようになる。AIは何百万人もの人々にメンタルヘルスケアを提供し、大学院の学位、医療過誤保険、睡眠といった人間のカウンセラーに必要な厄介な要件に妨げられることもない。しかし、実際には、まったく異なることが起こっている。

先日、私たちは、セラピストがセッション中に密かにChatGPT(チャットGPT)を使用していることを患者が発見したという内容の記事を公開した。中には露骨なケースもあった。あるセラピストがバーチャル診療中に誤って画面を共有してしまい、患者は自分のプライベートな考えがリアルタイムでChatGPTに入力されているのを目撃した。そしてモデルが提案した回答を、そのセラピストがオウム返しに話していたのである。

これは最近の私のお気に入りのAIに関する記事である。おそらく、テック企業がほぼ推奨している方法で人々が実際にAIを使用したときに展開される混乱を、非常に見事に捉えているからだ。

この記事を書いたジャーナリストのローリー・クラークが指摘するように、AIが治療的に有用である可能性は完全な夢物語ではない。今年の初め、私は治療専用に構築されたAIボットの初の臨床試験について書いた。結果は有望だった。しかし、メンタルヘルス用に検証されていないAIモデルをセラピストが秘密裏に使用することは、まったく別の問題である。記事を執筆したクラークにさらに詳しい話を聞いた。

——セラピストがAIを密かに使用していることを発見した後、人々がセラピストを糾弾したことに本当に興味を引かれました。これらのセラピストの反応をどう解釈しましたか? 彼らは隠そうとしていたのでしょうか?

記事で言及したすべてのケースにおいて、セラピストは患者に対してAIをどのように使用しているかを事前に開示していませんでした。明確に隠そうとしていたかどうかに関わらず、発覚したときにはそのように見えてしまったのです。このことから、記事を書いて得た主な教訓の一つは、セラピストはAIを使用する予定がある場合、絶対にその旨とその方法を開示すべきだということです。そうしなければ、発覚したときに患者にとって非常に不快な疑問が生じ、築かれた信頼関係を取り返しのつかないほど損なうリスクがあります。

——あなたが出会った事例では、セラピストは単純に時間節約のためにAIに頼っているのでしょうか? それとも、AIモデルが患者の悩みについて真に新しい視点を与えてくれると考えているのでしょうか?

一部の人はAIを潜在的な時間節約手段と見なしています。何人かのセラピストから、記録作成が彼らの生活の悩みの種だと聞きました。そのため、これをサポートできるAI搭載ツールへの関心はあると思います。私が話した大部分の人は、患者の治療方法についてのアドバイスにAIを使用することには非常に懐疑的でした。彼らは、スーパーバイザーや同僚、または文献のケーススタディに頼る方が良いと述べていました。さらに、これらのツールに機密データを入力することを当然ながら非常に警戒していました。

AIが認知行動療法のような、より標準化された「マニュアル化された」治療を合理的に効果的に提供できるという証拠がいくつかあります。そのため、その用途にはより有用である可能性があります。しかし、それはそのために特別に設計されたAIであり、ChatGPTのような汎用ツールではありません。

——これが間違った方向に進んだ場合、何が起こるでしょうか?倫理団体や議員からどのような注目を集めているのでしょうか?

現在、米国カウンセリング協会(American Counseling Association)のような専門団体は、患者の診断にAIツールを使用することに反対を表明しています。将来的には、これを防ぐより厳格な規制も作られる可能性があります。例えば、ネバダ州とイリノイ州は最近、治療上の意思決定におけるAIの使用を禁止する法律を可決しました。より多くの州が続く可能性があります。

——オープンAI(OpenAI)のサム・アルトマンは先月、「多くの人が事実上、ChatGPTを一種のセラピストとして使用しています」と投稿しました。そして彼にとってそれは良いことだと言っています。テック企業は私たちに役立つAIの能力について過大な約束をしていると思いますか?

テック企業は、このようなAIの使用は、一部の人々が自社の製品に愛着を形成するのに明らかに有効であるとして、微妙に奨励していると思います。主な問題は、人々がこれらのツールから得ているものは、どう考えても本当の「治療」ではないということです。良い治療は、誰かの発言をなだめ、すべてを肯定することをはるかに超えています。私はこれまで、実際の対面での治療セッションを楽しみにしたことは一度もありません。セッションはしばしば非常に不快で、苦痛でさえあります。しかし、それが要点の一部なのです。セラピストは患者に挑戦し、その内面を引き出し、理解しようと努めるべきです。ChatGPTはこれらのことを何一つしません。

人気の記事ランキング
  1. How to run an LLM on your laptop チャットGPTからの卒業:自分のパソコンでLLMを動かしてみよう
  2. It’s pretty easy to get DeepSeek to talk dirty 「お堅い」Claude、性的会話に応じやすいAIモデルは?
ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る