アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は
オープンAIが米軍の機密環境で自社技術の使用を認める契約に合意した。自律兵器や大規模監視を防ぐ保護措置を盛り込んだと強調するが、その核心は「政府は法を守る」という前提と既存法の引用にすぎない。アンソロピックが独自に引こうとしたレッドラインとは対照的なアプローチだ。 by James O'Donnell2026.03.04
- この記事の3つのポイント
-
- オープンAIが国防総省と軍事利用契約を締結し、アンソロピックが拒否した条件を法的アプローチで受け入れた
- アンソロピックは契約上の具体的禁止条項を重視したが、オープンAIは既存法への依拠で妥協点を見出した
- 国防総省がアンソロピックを政府調達から排除する中、AI企業の軍事協力における道徳的境界線が政治的圧力で後退している
オープンAI(OpenAI)は2月28日、米軍が機密環境で同社の技術を使用できるようにする契約に合意したと発表した。サム・アルトマンCEOは、国防総省がアンソロピック(Anthropic)を公然と非難した後になって同社が交渉を本格的に進め始めたことについて、「間違いなく急がされた」と述べた。
発表において、オープンAIは、国防総省が同社の技術を無制限に利用できるよう譲歩したわけではないと強調した。同社は、自律兵器や国内での大規模監視への使用を防ぐ保護措置が盛り込まれていることを説明するブログ記事を公開し、アルトマンCEOは、アンソロピックが拒否した条件をそのまま受け入れたわけではないと述べた。
これを、オープンAIが契約と道徳的優位の双方を勝ち取ったと解釈することもできる。しかし、行間や法律用語を読み解くと、別の側面が浮かび上がる。アンソロピックは多くの支持者を獲得しながらも失敗に終わった道徳的アプローチを追求した一方で、オープンAIは最終的に国防総省に対してより寛容な、実務的かつ法的なアプローチを採ったのだ。
イランへの攻撃の最中に、軍が政治的色彩を帯びたAI戦略を急いで展開する中で、オープンAIが約束する安全対策を実際に組み込めるのか、あるいは同社により強硬な姿勢を求めていた従業員にとってこの契約が十分と受け止められるのかは、現時点では明らかでない。この綱渡りは容易ではないだろう(オープンAIは契約に関する追加情報の要請にすぐには応じなかった)。
しかし、悪魔は細部に宿る。アンソロピックが合意に至れなかった一方で、オープンAIが契約を結ぶことができた理由は、境界線の設定そのものというよりも、アプローチの違いにあったとアルトマンCEOは述べた。「アンソロピックは適用法を引用するよりも、契約上の具体的な禁止条項に重点を置いているように見えました。私たちは適用法に依拠する形で問題ないと考えました」と彼は書いた。
オープンAIは、国防総省と協力する意思の根拠の一つとして、政府が法律を破らないという前提を挙げている。契約の限定的な抜粋を公開した同社は、自律兵器や監視に関連する複数の法律および政策を引用している。それらは、2023年に国防総省が発出した自律兵器に関する指令(自律兵器を禁止するものではなく、その設計および試験の指針を示すもの)といった具体的なものから、米国民を大規模監視から保護してきた合衆国憲法修正第4条のような広範な規定にまで及ぶ。
しかし、公開された抜粋は「アンソロピック方式の、合法的な政府利用を独自に禁止する自立的権利をオープンAIに与えるものではありません」と、ジョージ・ワシントン大学ロースクールの政府調達法研究担当准学部長ジェシカ・ティリップマンは指摘している。それは単に、国防総省が現行の法律および政策に違反する目的でオープンAIの技術を使用してはならないと述べているにすぎない。
アンソロピックがこの問題で多くの支持者(オープンAIの従業員の一部を含む)を集めた理由は、これらの規則ではAI対応の自律兵器や大規模監視の創出を防ぐには不十分だと彼らが考えているからである。そして、連邦機関が法律を破らないという前提は、エドワード・スノーデンが暴露した監視慣行が内部機関によって合法と判断され、長期にわたる法廷闘争の末に違法と認定されたことを記憶している人々にとっては、ほとんど安心材料にならない(さらに言えば、現行法で許容されている多くの監視手法がAIによって拡張され得る点もある)。この点に関して言えば、我々は本質的に出発点に戻っている。すなわち、国防総省が合法である限り、AIをあらゆる用途に使用できる状況である。
オープンAIは、国家安全保障パートナーシップ責任者が前日に述べたように、もし政府が法に従わないと考えるのであれば、アンソロピックが提案したレッドラインが守られるとも信じるべきではないと言うかもしれない。しかし、それはレッドラインを設定すべきでない理由にはならない。執行が不完全だからといって制約が無意味になるわけではなく、契約条項は依然として行動、監督、そして政治的帰結を形作る。
オープンAIは第二の防衛線も主張している。同社は、自社モデルを統制する安全規則の管理権を保持し、軍に対して安全制御を取り除いたバージョンのAIを提供しないとしている。「私たちは、大規模監視をしないこと、人間の関与なしに兵器システムを指揮しないことといったレッドラインを、モデルの挙動に直接組み込むことができます」。アルトマンCEOから本件についてXで発言するよう任命されたオープンAIの従業員ボアズ・バラクは書いた。
しかし同社は、軍向けの安全規則が一般ユーザー向けの規則とどのように異なるのかを具体的に示していない。さらに、執行は決して完全ではなく、オープンAIが機密環境でこれらの保護措置を初めて展開し、しかもわずか6カ月で実装することが求められている状況では、その困難さはいっそう増す。
この問題の根底には、さらに別の問いがある。合法ではあるが道徳的に容認できないと企業が考える行為を禁止するかどうかは、テクノロジー企業の判断に委ねられるべきなのか。政府は明らかに、この役割を担おうとしたアンソロピックの姿勢を容認できないと見なした。2月27日(金)の夜、米国がテヘランで攻撃を開始する8時間前、ピート・ヘグセス国防長官はXに厳しい投稿を行なった。「アンソロピックは傲慢と裏切りの模範を示した」と彼は書き、アンソロピックが自社モデルClaude(クロード)が自律兵器や国内大規模監視に使用されるのを防ごうとしたことを受けて、トランプ大統領が政府に同社との協力停止を命じたことを強調した。「戦争省は、あらゆる合法的目的のために、アンソロピックのモデルに対する完全かつ無制限のアクセスを持たなければならない」とヘグセス長官は記した。
しかし、オープンAIの完全な契約内容がさらなる詳細を明らかにしない限り、同社が自ら正しいと考えることを実行するための影響力を誇りをもって行使すると約束する一方で、国防総省が自社技術で何をできるかの主要な歯止めを法律に委ねているという、イデオロギー的なシーソーの上に立っているように見えるのは否めない。
ここで注視すべき点が三つある。第一に、この立場がオープンAIの中核的な従業員にとって十分なものとなるかどうかである。AI企業が人材獲得に巨額の資金を投じている状況において、アルトマンCEOの正当化の中に許しがたい妥協を見いだす社員が現れる可能性は否定できない。
第二に、ヘグセス長官がアンソロピックに対して宣言した焦土作戦である。単に政府契約を打ち切るにとどまらず、同社をサプライチェーン上のリスクに分類し、「米軍と取引を行う請負業者、供給業者、パートナーはアンソロピックといかなる商業活動も行なってはならない」と発表した。この致命的措置が法的に可能かどうかについては大きな議論があり、アンソロピックはその脅威が実行されれば提訴すると表明している。オープンAIもこの措置には反対している。
最後に、国防総省がイランへの攻撃を激化させる中で、機密作戦(ベネズエラでの一部を含む)において積極的に使用されている唯一のAIモデルであるClaude(クロード)をどのように置き換えるのかという問題である。ヘグセス長官は機関に6カ月の猶予を与え、その間に軍はオープンAIのモデルおよびイーロン・マスク率いるxAIのモデルを段階的に導入するとしている。
しかし、Claudeは禁止命令が出された数時間後にイランへの攻撃で使用されたと報じられており、段階的な廃止が決して容易ではないことを示唆している。アンソロピックと国防総省の数か月に及ぶ対立が終結したとしても(私はそうは思わないが)、いま我々が目にしているのは、国防総省のAI加速計画が企業に対し、かつて自ら引いた一線を後退させるよう圧力をかけている状況であり、中東における新たな緊張がその主要な試験場となっているという現実である。
- 人気の記事ランキング
-
- This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
- How uncrewed narco subs could transform the Colombian drug trade 中には誰もいなかった—— コカイン密輸組織が作った 「自律潜水ドローン」の脅威
- Is a secure AI assistant possible? 大手が出せなかったAI 「OpenClaw」の衝撃 安全性対策に特効薬なし
- The building legal case for global climate justice 気候変動の「加害者」は誰か? 気候科学の進歩で企業責任の追及に勢い
- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。