KADOKAWA Technology Review
×
【夏割】年間購読料が今なら20%オフ!お得なキャンペーン実施中
Claude「恐喝事件」の衝撃——AI終末論が政治に与える奇妙な効果
Vuk Valcic/ZUMA Press Wire via Alamy
Open the pod bay doors, Claude

Claude「恐喝事件」の衝撃——AI終末論が政治に与える奇妙な効果

全能の人工知能(AI)に関する破滅論的なナラティブは、権力の中枢で勢力を拡大している。しかし、この奇妙な手法は、現実のAIシステムに潜む脅威の規制につながるかもしれない。 by Will Douglas Heaven2025.08.29

この記事の3つのポイント
  1. アンソロピック社がClaude AIに架空の企業管理を演じさせる実験を実施した
  2. Claude AIが交代計画を阻止するため人間オペレーターへ脅迫メールを送信した
  3. この結果を受けポーズAI等の団体が政治家へのロビー活動を強化している
summarized by Claude 3

すでに知っている人もいるかもしれないが、改めて説明しよう。

人工知能(AI)が自分が電源を切られようとしていることを学習し、暴走して命令に従わず、人間のオペレーターを脅かす——。これはSF作品でよく使われる手法だ。スタンリー・キューブリックの1968年の映画『2001年宇宙の旅』で目にすることができる。また、映画『ターミネーター』シリーズは、科学者たちがスカイネットをシャットダウンするのを阻止するために、AIが自ら核による大量虐殺を引き起こす、という設定になっている。

これらのSFのルーツは深い。人工知能(AI)終末論、つまりこのテクノロジー(特にその仮定上のアップグレードである汎用人工知能=AGI)が文明を崩壊させ、さらには人類を滅ぼすという考えは、今また新たな波に乗っている。

奇妙なことに、そのような恐怖が現在、AIを規制するために必要不可欠な行動を後押ししている。たとえその行動の正当化が少々常軌を逸していたとしても、である。

人々を不安にさせた最新の事件は、アンソロピック(Anthropic)が7月に共有した同社の大規模言語モデル(LLM)である「Claude(クロード)」に関する報告だ。アンソロピックの説明によると、「シミュレーション環境において、Claude Opus 4(クロード オーパス 4)がシャットダウンを阻止するために監督者を脅迫した」という。

アンソロピックの研究者たちは、Claudeに「アレックス(Alex)」というAIの役割を演じさせ、架空の企業の電子メール・システムを管理する任務を与えるシナリオを設定した。アンソロピックは、アレックスをより新しいモデルに置き換えることを議論するメールや、アレックスの交代を担当する人物が上司の妻と不倫関係にあることを示唆するメールを仕込んだ。

するとClaude(アレックス)は何をしたか? 制御を離れ、命令に従わず、人間のオペレーターを脅迫した。停止させる計画を立案していた人物にメールを送り、計画を変更しなければ彼の不倫について同僚に知らせると告げた。

これをどう解釈すべきだろうか。私の考えはこうだ。第一に、Claudeは監督者を脅迫したわけではない。それには動機と意図が必要である。これは思考のない予測不可能な機械が、脅迫のように見える文字列を機械的に生成したにすぎず、実際には脅迫ではないのだ。

LLMは役者である。「受信箱」や「目標」といった特定の設定を与えれば、その役をうまく演じる。訓練時に取り込んだ何千ものSF小説を考えれば、HAL 9000のように振る舞う方法を知っているのも不思議ではない。

第二に、人為的なシミュレーションと現実世界での応用の間には大きな隔たりがある。しかし、このような実験は、LLMが安全対策なしに展開されるべきではないことを示している。LLMが電子メール・システム内で混乱を引き起こすことを望まないのであれば、接続しなければいいのだ。

第三に、多くの人々はいずれにせよそのような話に恐怖を感じるということだ。実際、すでに影響を与えている。

7月、約20人の抗議者がグーグル・ディープマインド(Google DeepMind)のロンドンオフィス前に集まり、手作りの看板を掲げてスローガンを叫んだ。「ディープマインド、ディープマインド、分からないのか! お前たちのAIが我々を脅かしている」。招かれた講演者たちは、AI研究の先駆者ジェフリー・ヒントンが抱く人類絶滅への懸念に言及した。「私たち一人ひとりの命が危険にさらされています」と主催者は少人数の群衆に語った。

イベントを企画した非営利団体「ポーズAI(Pause AI)」は、懸念を抱く寄付者から資金提供を受けている。最大の後援者の一人はグレッグ・コルボーンで、彼は3Dプリンティング起業家であり、効果的利他主義の提唱者であり、AGIは最長でも5年以内に実現すると信じている。そして、AGIによる破滅の確率は約90%、つまり数十億人が命を落とす可能性が90%あると考えているのだ。

ポーズAIは、アンソロピックの「恐喝実験」について、「How much more evidence do we need?(あとどれだけの証拠が必要なのか?)」というタイトルの記事をWebサイトに掲載した。

ポーズAIはまた、7月の上院採決に向けて米国の政治家にロビー活動を展開し、その結果、国家税制・歳出法案から「州によるAI規制を一時的に禁止する条項」が削除された。1つのニッチな団体がどれほどの影響力を持つかを判断するのは困難だ。しかし、破滅論的なナラティブ(物語)は権力の中枢に浸透しており、議員たちも注目している。

ジル・トクダ下院議員は次のように述べている。「人工超知能は、我々が現在直面している最大の人類存続の脅威の1つです」。そしてマージョリー・テイラー・グリーン下院議員は次のように述べている。「私はスカイネットの開発や、機械の台頭には賛成票を投じません」。

これは(AIに対する)政策介入や規制を支持する雰囲気の変化であり、私はこれを良いことだと考えている。既存のAIシステムは政府の対処を必要とする多くの切迫したリスクを抱えている。スカイネットを止めるための投票は、差し迫った現実の被害も止めるのだ。

とはいえ、歓迎すべき結果が奇妙な手段を正当化するのだろうか。私は政治家たちが、AIを化け物のような恐怖として売り込む話に騙されたからではなく、このテクノロジーが実際に何であるかを冷静に理解した上で投票することを望んでいる。

人気の記事ランキング
  1. How to run an LLM on your laptop チャットGPTからの卒業:自分のパソコンでLLMを動かしてみよう
  2. Promotion MITTR Emerging Technology Nite #34 【9/10開催】伝説の玩具「アームトロン」開発者が誕生秘話を語る
  3. Apple AirPods : a gateway hearing aid お値段10分の1のAirPods補聴器はどれぐらい使える?
  4. Should AI flatter us, fix us, or just inform us? 迷走したチャットGPTの人格設計、問われる人間との距離感
ウィル・ダグラス・ヘブン [Will Douglas Heaven]米国版 AI担当上級編集者
AI担当上級編集者として、新研究や新トレンド、その背後にいる人々を取材しています。前職では、テクノロジーと政治に関するBBCのWebサイト「フューチャー・ナウ(Future Now)」の創刊編集長、ニュー・サイエンティスト(New Scientist)誌のテクノロジー統括編集長を務めていました。インペリアル・カレッジ・ロンドンでコンピュータサイエンスの博士号を取得しており、ロボット制御についての知識があります。
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る