2024年1月、米ニューハンプシャー州一帯の家庭で電話が鳴った。受話器からはジョー・バイデンの声が聞こえ、民主党員に対し、「投票権を取っておく」ため予備選挙には行かないように呼びかけていた。その声は本物のように聞こえたが、そうではなかった。この電話は、人工知能(AI)によって生成された偽物だった。今となっては、その偽電話の背後で使用されたテクノロジーは古臭く見える。現在なら、オープンAI(OpenAI)の「Sora(ソラ)」のようなツールを使うことで、説得力のある合成動画を驚くほど簡単に作り出すことが可能だ。AIを使って、政治家や有名人からのメッセージや、ニュースクリップ全体さえも、数分で偽造できるのだ。選挙がリアルな偽メディアに圧倒されるかもしれないという不安は、もっともな理由で主流の懸念となった。しかしそれは、この話の半分にすぎない。より深刻な脅威は、AIが単に人間を模倣できることではなく、積極的に人々を説得できることである。1先日、発表された新たな研究は、その説得がどれほど大きな力を持ち得るかということを示している。2つの大規模な査読付き研究論文では、AIチャットボットが有権者の考えを大きく変えたことが示された。それは、従来の政治広告によってもたらされる変化の傾向よりも、はるかに大きなものであった。今後数年のうちには、議論の内容を個人個人に合わせてカスタマイズし、何が有効かテストして、政治的な考え方を大規模に再構築できるAIが台頭することになるだろう。そのような、模倣から積極的な説得への移行に、私たちは深い懸念を抱くべきである。課題は、最新のAIが単に声や顔を模倣するだけではないことである。会話をし、感情を読み取り、口調を調整して説得するのだ。そして、現在では他のAIにも命令できるようになった。画像モデルや動画モデル、音声モデルに指示を出して、それぞれのターゲットに対し最も説得力のあるコンテンツを生成することが可能なのだ。それらの要素をつなぎ合わせて考えれば、協調的な説得マシンを構築できるかもしれない方法を容易に想像できる。あるAIがメッセージを書き、別のAIがビジュアルを生成して、さらに別のAIが複数のプラットフォームにまたがって配信し、その効果を観察することが考えられる。そのプロセスに人間は一切必要ない。10年前なら、オンラインで効果的なインフルエンス・キャンペーン(誘導工作)を仕掛けることは、一般的に、大勢の人員を展開して偽アカウントやミーム農場を運営することを意味した。今では、そういった種類の作業を、安価に、そしてこっそりと自動化できる。顧客サービスボットや個人学習アプリを動作させているのと同じテクノロジーを転用して、政治的な意見を静かに誘導したり、政府にとって望ましいナラティブ(物語)を増幅したりすることが可能なのである。そのような説得は、必ずしも広告やロボコール(自動音声電話)に限定されない。人々がすでに毎日利用しているツールに組み込むことも可能である。ソーシャルメディアのフィードや、語学学習アプリ、出会い系プラットフォームなどだ。さらには、米国民に影響を与えようとしている勢力が構築・販売する音声アシスタントにも組み込まれる可能性がある。そのような種類の影響力は、人々がすでに頼っている人気AIツールのAPIを利用する、悪意ある行為者によってもたらされるかもしれない。あるいは、最初から説得能力を組み込んで構築された、まったく新しいアプリの可能性もある。そして、そのためのコストも手頃だ。100万ドルもかからずに、米国のすべての登録有権者1人ひとりに合わせてカスタマイズされた対話型のメッセージを、誰でも生成できる。その計算は単純だ。1人あたり10回の短いやり取り(約2700トークンのテキスト)を想定し、「ChatGPT(チャットGPT)」の現在のAPI利用料でコスト計算してみよう。登録有権者数1億7400万人という規模でも、コスト総額は100万ドルを下回る。2016年米大統領選を決定づけた8万人の浮動票を、3000ドル未満でターゲットにできる可能性があるのだ。このことは世界中の選挙に当てはまる課題ではあるが、選挙の規模と、外国勢力からの注目度を考えると、米国は特にリスクが高い。迅速に対応しなければ、2028年に実施される次の大統領選挙は、あるいは2026年の中間選挙でさえ、最初に説得工作を自動化する者が勝つ可能性がある。2028年の脅威 これまで、AIが選挙にもたらす脅威は誇張されていることを示す兆候があった。しかし、その状況が変わりつつある可能性を示唆する研究が増えている。最近の研究では、米国の世論を二分するような政治テーマに関して意見を主張するメッセージを生成する際、GPT-4の説得能力はコミュニケーション専門家を上回る場合があることが示されている。また、実際の有権者と議論する際の説得能力は、GPT-4の方が専門家以外の人間よりも3分の2の確率で高いという。先日発表された2つの主要な研究は、それらの知見を米国、カナダ、ポーランド、英国における実際の選挙の状況に拡大して検証した。その結果、チャットボットによる短い会話によって、有権者の態度を最大10パーセント変動させられることが示された。米国の研究参加者の意見変動は、2016年および2020年に実施された検証済みの政治広告への反応として起こった変動よりも、4倍近く大きかった。モデルが説得に対して明示的に最適化されている場合、変動幅は25%にまで高まった。これは、計り知れないといってもいいほどの大きな差である。以前は資金力のある企業の利用に限定されていたが、最新の大規模言語モデルはますます簡単に使えるようになっている。オープンAI、アンソロピック …