病院に入れないAIが戦場で命を奪う矛盾、「人間監視」は幻想だ
「意図のギャップ」——AIが命令通りに動いても、人間の意図通りに動くとは限らない。この問題が医療や航空管制へのAI導入を慎重にさせている一方、戦場では自律型兵器へのAI活用が加速している。米国防総省のガイドラインが前提とする「人間監視による安全確保」は、根本から問い直す必要がある。 by Uri Maoz2026.04.21
- この記事の3つのポイント
-
- AIの「ブラックボックス」性により、人間監視者はシステムの実際の意図を把握できない
- 「ヒューマン・インザ・ループ」という安全策は、AIが命令を独自解釈する「意図のギャップ」により機能不全に陥る
- 機械論的解釈可能性研究への大規模投資と議会による意図テストの義務化が急務だ
戦争への利用を巡る人工知能(AI)の問題が、アンソロピック(Anthropic)と米国防総省の法廷闘争の中心に据えられている。イランとの現在の紛争においてAIがかつてないほど大きな役割を果たしていることから、この議論は一刻を争う問題となっている。AIはもはや人間の情報分析を補助するだけの存在ではない。リアルタイムで攻撃目標を生成し、ミサイル迎撃を制御・調整し、殺傷能力を持つ自律型ドローンの群れを誘導する、能動的なプレーヤーとなっているのだ。
AI駆動の自律型殺傷兵器の使用を巡る公開議論の大半は、人間がどの程度関与すべきか、という点に集中している。米国防総省の現行ガイドラインでは、人間による監視が説明責任・文脈・細かな判断を担保しつつ、ハッキングのリスクを低減するとされている。
AIシステムは不透明な「ブラックボックス」だ
しかし、「ヒューマン・イン・ザ・ループ」を巡る議論は、人々を安心させるための目くらましに過ぎない。差し迫った危険は、機械が人間の監視なしに行動することではなく、人間の監視者がAIシステムの実際の「思考」を把握できないことにある。米国防総省のガイドラインには根本的な欠陥がある。それは、人間がAIシステムの動作原理を理解しているという危険な前提に基づいているからだ。
数十年にわたって人間の脳における意図を研究し、近年はAIシステムにおける意図も研究してきた筆者は、最先端のAIシステムが本質的に「ブラックボックス」であると断言できる。入力と出力は把握できても、それらを処理する人工的な「脳」の内部は不透明なままだ。開発者自身でさえ、AIを完全に解釈したり、その動作原理を理解したりすることはできない。そして、AIが理由を提示する場合でも、それが常に信頼できるとは限らない。
自律型システムにおける人間監視という幻想
人間による監視を巡る議論において、根本的な問いが発せられないままになっている。AIシステムが行動する前に、そのシステムが何をしようとしているかを人間は理解できるのか、という問いだ。
敵の弾薬工場を破壊する任務を与えられた自律型ドローンを想像してほしい。自動化された指揮統制システムは、最適な攻撃目標として弾薬貯蔵棟を選定する。建物内の弾薬が誘爆することで施設を完全に破壊できると …
- 人気の記事ランキング
-
- Why opinion on AI is so divided AIの「すごさ」、プロと一般人の見え方がまるで違う理由
- You have no choice in reading this article—maybe そこに自由意志は存在するか 神経科学者が挑み続ける 「選択の余地のない」問い
- Fuel prices are soaring. Plastic could be next. エネルギー転換より難しいプラ問題、ホルムズ危機であらわに
- Desalination plants in the Middle East are increasingly vulnerable 飲料水の9割を賄う 中東の「水の命綱」 淡水化施設が紛争の標的に