新・作戦司令室:生死の判断に、LLMが加わった
指揮官が攻撃目標の候補リストをチャットボットに提示させる時代が、すでに始まっている。LLMを基盤とする「助言AI」は、軍の意思決定に組み込まれつつあり、シリコンバレーとペンタゴンの関係をかつてないほど緊密なものにしている。 by James O'Donnell2026.05.02
- この記事の3つのポイント
-
- LLMを基盤とする対話型AI助言システムが、軍の標的選定など生死に関わる意思決定に実装されつつある
- 時間的圧力下での検証省略や過信、テック企業による戦場情報への影響力拡大など多層的リスクが指摘されている
- 防衛契約の拡大と機密データによるモデル訓練計画が、シリコンバレーと軍の前例なき融合を加速させている
イランでの紛争を最初の「AI戦争」と呼ぶのは、多くの点で正確ではない。監視映像を何時間も精査し、機関銃を搭載したトラックなどを識別するアルゴリズムは、アフガニスタン戦争にまで遡る。ウクライナは人工知能(AI)を使って自律的に航行するドローンを開発した。イスラエルは情報データから攻撃目標の候補を特定するAIシステムを活用した。
イランをはじめとする各地で新たに登場したのは、指揮官が分析だけでなく助言を求めて利用する対話型AIシステムだ。従来のAI技術とは異なり、これらの助言エンジンは大規模言語モデル(LLM)を基盤としている。そして、軍が情報を共有する方法、大手テック企業との連携、そして生死に関わる意思決定のあり方を、すでに塗り替えつつある。
10年前、AIツールはジュニアの情報アナリストが担っていた作業、すなわちソーシャルメディアや衛星フィードの膨大なノイズの中から重要なシグナルを抽出する作業を自動化し始めた。主に監視技術の大手パランティア(Palantir)が開発した技術を基盤とする米軍のプロジェクト・メイブン(Project Maven)のようなシステムは、指揮官が地球の裏側にある標的への爆撃を選択できるツールに分析結果を流し込んだ。そのインターフェースは、戦争の機械というよりもビジネス・ソフトウェアに近い洗練されたものだった。
現在、大規模言語モデルによってこれらのシステムはより対話的になり、助言を提供する能力も高まっている。米国防省のある高官はMITテクノロジーレビューに対し、現在の軍人がどの標的を最初に攻撃するかを決める際に、チャットボットに候補リストを提示することがあると語った。ペンタゴン(米国防総省)は最近、アンソロピック(Anthropic)をサプライチェーンリスクと位置づけたにもかかわらず、同社のツールであるClaude(クロード)は軍事作戦に深く組み込まれており、政府は排除には6カ月を要するとしている。
チャットボットを指揮官の手元に置こうとしているのは米国だけではない。ジョージタウン大学の安全保障・新興技術センター(CSET)による最近の分析によれば、中国も同様のツールを開発・調達しているという。
情報の収集・分析には従来型のAIシステムが引き続き使用されるものの、AIが生成する助言は世界中の軍が強く求め、真剣に受け止めているものであることは明らかだ。
このパラダイムシフトに伴う問題の1つは、生成AIを利用した経験があれば容易に理解できるだろう。同じプロンプトでも異なる出力が生成され、その場で提示される推奨が常に有用・正確・妥当であるとは限らない。職場での利用者は通常、その出力を精査することが求められる。しかし、例えば次の5分以内に攻撃対象を決定しなければならないといった強い時間的圧力下では、その検証を省略してしまう可能性がある。
AIが生成する誤りは問題の一部に過ぎない。AIシステムは、複雑な世界を整然とした戦場ダッシュボードに圧縮する。こうしたシステムと対話する将校がシステムを過度に信頼する恐れや、表示される情報にテック企業が不当な影響力を与えかねない点を軍事専門家は警告している。さらに軍が事実上、まったくの新しい技術の導入を急ぐ中で、国民にはその使用を監視したり、誤りにおける役割を精査したりする実質的な手段が存在しない点も問題だ(実際、ペンタゴンが1月に発表したメモは、こうした概念に基づく「責任あるAI」を「ユートピア的理想主義」と表現している)。
一方でオープンAI(OpenAI)をはじめとする企業は、高収益の防衛契約を獲得する好機と見ている。AI企業に対して軍へ最高水準のモデルを提供するよう求めるペンタゴンは、企業が機密軍事データを使って新たなモデルを訓練することさえ認める計画だ。これは、監視情報や戦場評価といった機密情報がモデル自体に組み込まれることを意味し、新たなセキュリティリスクをもたらす。また、シリコンバレーとペンタゴンの関係をかつてないほど緊密なものにするだろう。
- 人気の記事ランキング
-
- Is fake grass a bad idea? The AstroTurf wars are far from over. 「一番ましな悪い選択肢」 人工芝の安全性をめぐる 論争はまだ終わらない
- Will fusion power get cheap? Don’t count on it. 核融合は本当に安くなるのか? 楽観論に「待った」をかける新研究
- Digging for clues about the North Pole’s past 12万年前は無氷だった?海底22メートルの泥で掘り起こす北極点の謎
- Is carbon removal in trouble? 炭素除去業界に激震、最大顧客のマイクロソフトが購入を一時停止
- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。