LLMが説得力で人間超え、相手に合わせて議論を調整
GPT-4などの大規模言語モデル(LLM)が対話相手の個人情報を活用した場合、議論の場で人間よりも64%高い説得力を持つことが研究で分かった。偽情報拡散の新たなリスクとなる一方、教育目的など肯定的な活用の可能性も示している。 by Rhiannon Williams2025.05.20
- この記事の3つのポイント
-
- GPT-4は人間よりも説得力があると研究で判明した
- GPT-4は相手の個人情報を利用することで説得力が高まる
- LLMはデマ拡散に利用される危険性がある一方で対策にもなり得る
毎日、何百万人もの人々がオンラインで議論を交わしているが、驚くべきことに、他人の考えを変えられる人はほとんどいない。新たな研究によれば、大規模言語モデル(LLM)の方がより良い成果を上げられる可能性があるという。これは、良くも悪くも、AIが人々を説得するための強力な手段になり得る可能性を示している。
複数の大学による研究チームは、オープンAI(OpenAI)のGPT-4が、議論相手に関する個人情報を使って主張を調整できる場合、人間よりもはるかに説得力を持つことを発見した。
この発見は、LLMの説得力を実証する研究成果の最新例である。論文の著者らは、AIツールが対話相手に関するごくわずかな情報しか持たない場合でも、洗練された説得力のある議論を構築できると警告している。研究は学術誌『ネイチャー・ヒューマン・ビヘイビア(Nature Human Behavior)』に掲載された。
「政策立案者やオンライン・プラットフォームは、協調的なAIベースの偽情報キャンペーンの脅威を真剣に考慮すべきです。私たちは明らかに、世論を戦略的に誘導できるLLMベースの自動アカウントのネットワークを構築可能な技術水準に到達しているからです」。イタリアのブルーノ・ケスラー財団(Fondazione Bruno Kessler)の学際的物理学者で、本研究に関わったリッカルド・ガロッティはこう述べる。
「これらのボットは、偽情報を広めるために使用される可能性があり、このような拡散された影響は、リアルタイムで反証するのが非常に難しくなるでしょう」。
研究チームは、米国在住の900人を募集し、性別、年齢、民族、学歴、雇用状況、政治的立場などの個人情報を提供してもらった。
参加者は、人間の対戦相手またはGPT-4とマッチングされ、米国が化石燃料を禁止すべきか、生徒が制服を着用すべきかといった、ランダムに割り当てられた30のテーマのうち1つについて、10分間議論するよう指示された。それぞれの参加者は、そのテーマに賛成または反対の立場を取るよう求められ、場合によっては相手の個人情報が提供され、議論をより適切に調整できるようにされた。議論終了後、参加者は提案にどの程度同意するか、そして相手が人間かAIかをどのように感じたかを報告した。
全体として、GPT-4はすべてのトピックにおいて人間と同等、あるいはそれ以上に説得力があると評価された。相手の個人情報を持っていた場合、AIは情報なしの人間よりも64%高い説得力を持つ。つまり、GPT-4は人間よりも個人データをはるかに効果的に活用できたということになる。一方、個人情報を利用できた人間は、利用できなかった人間よりもわずかに説得力が劣っていた。
研究チームは、参加者が自分の議論の相手がAIだと思った場合、その主張に同意しやすくなる傾向があることに気づいた。その理由は明確ではなく、人間がAIとどのように相互作用するかを理解するために、さらなる研究が必要だと指摘している。
「参加者が相手をボットだと信じることが、合意の変化を引き起こしているのか(『ボットなのだから意見を変えても人間に負けたわけではない』と考える)、それともその信念自体が意見変化の結果なのか(『負けたから、相手はボットに違いない』)はまだ判別できません」とガロッティは述べた。「この因果関係の方向性は、今後探求すべき興味深い未解決の問題です」。
この実験は、実際のオンライン議論の様式をそのまま反映したものではないが、ガロッティは、LLMが大規模なデマキャンペーンを拡散する手段としてだけでなく、それに対抗する効果的な方法としても機能し得ることを示していると述べている。例えば、オンラインで欺かれやすい人々に対して、個別に最適化された反論的ナラティブ(物語)を生成することで教育ができるかもしれない。「しかし、こうした脅威を軽減する効果的な戦略を探るためには、さらなる研究が急務です」と彼は述べている。
人間同士の相互作用については多くが知られているが、人間がAIモデルとどのように関わるかという心理的側面については、ほとんど明らかになっていないと、ダートマス大学のフェローで、今回の研究には関与していないアレクシス・パーマーは話す。
「意見の合わない話題について誰かと会話をする状況において、その対話に本質的に人間らしさが重要なのでしょうか? それとも、AIがその話し方を完璧に真似ることができれば、まったく同じ結果が得られるのでしょうか? これがAIに関する大きな問題だと私は考えています」。
- 人気の記事ランキング
-
- How a 1980s toy robot arm inspired modern robotics 世界の工学者を魅了し続ける 80年代の日本のおもちゃ
- Why Chinese manufacturers are going viral on TikTok 「ほぼエルメス」を工場直送 中国の下請け企業が ティックトックで反旗
- Here’s why we need to start thinking of AI as “normal” AIは「普通」の技術、プリンストン大のつまらない提言の背景
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法

- リアノン・ウィリアムズ [Rhiannon Williams]米国版 ニュース担当記者
- 米国版ニュースレター「ザ・ダウンロード(The Download)」の執筆を担当。MITテクノロジーレビュー入社以前は、英国「i (アイ)」紙のテクノロジー特派員、テレグラフ紙のテクノロジー担当記者を務めた。2021年には英国ジャーナリズム賞の最終選考に残ったほか、専門家としてBBCにも定期的に出演している。