KADOKAWA Technology Review
×
Facebookログイン終了のお知らせ(2026/3/31 予定)
【独自】米国防総省、軍事機密データでAIモデルの訓練を計画
Stephanie Arnett/MIT Technology Review | Adobe Stock
The Pentagon is planning for AI companies to train on classified data, defense official says

【独自】米国防総省、軍事機密データでAIモデルの訓練を計画

米国防総省が、生成AI企業の軍事向けモデルを機密データで訓練できる安全な環境の構築を検討していることが、独自取材で明らかになった。AIモデルに機密情報を「学習」させるのは従来の運用とは異なる新たな段階であり、工作員情報の漏洩など特有のリスクも指摘されている。 by James O'Donnell2026.03.24

この記事の3つのポイント
  1. 米国防総省が生成AI企業による機密データを用いた軍事向けモデル訓練環境の構築を検討していることが判明した
  2. 機密データでの訓練により特定タスクでの精度向上が期待される一方、機密情報の意図しない再出力リスクが懸念される
  3. 軍は人間アナリストの業務をAIに代替させる構想を持ち、そのためには機密データアクセスが不可欠とされている
summarized by Claude 3

米国防総省は、生成AI企業が機密データを用いて軍事向けモデルを訓練できる安全な環境の構築を検討している。こうした計画が進められていることが、MITテクノロジーレビューの取材で明らかになった。

アンソロピック(Anthropic)のClaude(クロード)のようなAIモデルは、すでに機密環境下での質疑応答に利用されており、イランにおける標的分析などに活用されている。しかし、モデルが機密データで訓練され、そこから学習することを認めるのは新たな展開であり、特有のセキュリティリスクを伴う。これは、監視報告書や戦場評価といった機密情報がモデル自体に組み込まれる可能性を意味し、AI企業が従来以上に機密データへ接近することになる。

機密データでAIモデルの専用版を訓練することで、特定のタスクにおいてより高い精度と有効性が期待されると、MITテクノロジーレビューの取材に匿名で応じた米国防当局者は述べた。この動きは、より高性能なモデルへの需要が高まる中で明らかになったものである。国防総省は、オープンAI(OpenAI)およびイーロン・マスク率いるエックスAI(xAI)と、機密環境下でのモデル運用に関する合意に達しており、イランとの紛争激化を背景に、「AI優先の戦闘部隊」を目指す新たな戦略を進めている(なお、同省は掲載時点でAI訓練計画についてコメントしていない)。

訓練は、機密政府プロジェクトを扱う認定を受けた安全なデータセンターで実施され、AIモデルのコピーと機密データが組み合わされる形で行なわれると、この種の運用に詳しい関係者2人が語った。データの所有権は引き続き国防総省にあるが、適切なセキュリティ・クリアランスを有する場合に限り、AI企業の職員が例外的にデータへアクセスする可能性があるという。

ただし当局者によれば、このような訓練を許可する前に、国防総省は商用衛星画像などの非機密データで訓練されたモデルの精度と有効性を評価する方針である。

軍は長年にわたり、比較的古いAIであるコンピュータービジョン・モデルを用いて、ドローンや航空機から収集した画像・映像内の物体を識別してきた。また連邦機関は、こうしたデータでAIモデルを訓練する企業に契約を発注してきた。さらに、大規模言語モデル(LLM)やチャットボットを開発する企業は、政府業務向けに微調整されたモデル(例:アンソロピックのClaude Gov(クロード・ガブ))を開発しており、これらは多言語対応や安全な環境での運用を目的としている。しかし今回の当局者の発言は、オープンAIやエックスAIのような企業が、機密データを用いて政府専用モデルを直接訓練する可能性を示した初の兆候である。

戦略国際問題研究所(CSIS)のワドワニAIセンターを率い、以前はグーグルおよびオープンAIでAI政策を担当していたアーロク・メータは、機密データについて単に質問に答えるのではなく、そのデータで訓練することは新たなリスクをもたらすと指摘する。

最大のリスクは、モデルが学習した機密情報が、モデル利用者に再出力される可能性がある点だと彼は述べる。異なる機密区分や情報ニーズを持つ複数の軍部門が同一のAIを共有する場合、これは重大な問題となり得る。

「例えば、工作員の名前のような機密の人的情報にアクセスできるモデルが、その情報にアクセス権のない国防総省内の別部門に漏洩する可能性があります」とメータは述べる。これは当該工作員にとって重大なセキュリティ・リスクとなり得るものであり、特定のモデルが複数の軍組織で共有される場合、完全な防止は困難である。

しかしメータによれば、情報を外部世界に漏らさないよう封じ込めること自体はそれほど難しくない。「適切に設計すれば、そのデータが一般のインターネットやオープンAIに再流出するリスクは極めて低く抑えられます」。政府はすでにそのためのインフラの一部を保有しており、セキュリティ企業パランティア(Palantir)は、機密情報をAI企業へ送信することなく、当局者が機密トピックについてAIモデルに問い合わせできる安全な環境を構築する大型契約を獲得している。ただし、これらのシステムを訓練用途に転用することは依然として新たな課題である。

国防総省は、1月にピート・ヘグセス国防長官が発したメモを受け、AI導入の加速を進めている。生成AIはすでに、標的リストの優先順位付けや攻撃対象の推奨といった戦闘用途、さらには契約書や報告書の作成といった事務的業務にも活用されている。

現在は人間のアナリストが担っている多くの業務について、軍は主要なAIモデルに実行させることを検討しており、そのためには機密データへのアクセスが不可欠になるとメータは指摘する。具体的には、画像内の微細な手がかりの検出や、新規情報を過去の文脈と結び付ける能力などが含まれる可能性がある。これらの機密データは、情報機関が収集する膨大な多言語のテキスト、音声、画像、動画から得られる。

どの具体的な軍事任務がこのようなデータでの訓練を必要とするかを特定するのは極めて難しいとメータは警告する。「というのも、国防総省にはその情報を機密に保つ強い動機があり、他国に自らの能力の詳細を知られたくないからです」。

人気の記事ランキング
  1. Hustlers are cashing in on China’s OpenClaw AI craze 導入支援に中古Mac販売、中国でOpenClaw副業起業ラッシュ
  2. We’re putting more stuff into space than ever. Here’s what’s up there. 衛星1万4000基、宇宙ゴミ100万個——広がる「人類圏」の現在
  3. A defense official reveals how AI chatbots could be used for targeting decisions 米軍、標的選定にChatGPT活用の可能性 関係者が証言
ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。
MITテクノロジーレビューが選んだ、 世界を変える10大技術

MITテクノロジーレビューの記者と編集者は、未来を形作るエマージング・テクノロジーについて常に議論している。年に一度、私たちは現状を確認し、その見通しを読者に共有する。以下に挙げるのは、良くも悪くも今後数年間で進歩を促し、あるいは大きな変化を引き起こすと本誌が考えるテクノロジーである。

特集ページへ
AI革命の真実 誇大宣伝の先にあるもの

AIは人間の知能を再現する。AIは病気を根絶する。AIは人類史上、最大にして最も重要な発明だ——。こうした言葉を、あなたも何度となく耳にしてきたはずだ。しかし、その多くは、おそらく真実ではない。現在地を見極め、AIが本当に可能にするものは何かを問い、次に進むべき道を探る。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る