「作りません」では不十分
激化するAI軍拡競争、
研究者に問われる姿勢
最近、著名な人工知能(AI)研究者たちが自律兵器の開発に協力しないとする誓約書に署名したことが報道された。しかし、こうした行動に対し、自律兵器に関する最新の書籍の著者は、研究者らは協力を拒絶するだけでは不十分だと訴える。 by Will Knight2018.08.20
2400人以上のAI研究者が最近、殺害する相手を自身で決定するシステム、いわゆる「自律兵器」を開発しないことを誓う誓約書に署名した。米国防総省に対し、ドローン映像解析用の人工知能(AI)を提供していたグーグルの決定に続く動きだ。グーグルは、米軍のプロジェクト「メイバン(Maven)」への関与に反対する多くの従業員からの圧力を受けて、次回の契約更新をしないとの決定を下した。
2018年4月に出版された書籍『Army of None: Autonomous Weapons and the Future of War(無人の軍:自律兵器と戦争の未来) 』(未邦訳)の著者であるポール・シャーレは、AI研究者が変化を起こしたいなら、プロジェクトから手を引くだけでは不十分だと考えている。
シャーレは以前、イラクやアフガニスタンで特殊部隊に所属し、現在は新アメリカ安全保障センターの上級研究員である。シャーレは、AIの専門家は政策立案者や軍事専門家と関わりを持ち、研究者がなぜ懸念を抱いているのかを説明して、AIシステムの限界を理解させる必要があると主張する。
これから起こり得る危険なAIの軍拡競争を阻止する最良の方策とは何か? MITテクノロジーレビューの上級編集者であるウィル・ナイトがシャーレに聞いた。
#
——米軍はAI兵器の開発にどれほど熱心なのですか?
米国の国防指導者らは、人々に議論に加わってもらい、殺傷能力の高い武器に関する決定に対する責任を負ってもらいたいと繰り返し述べています。ここで気を付けてほしいのは、他国が自律兵器を開発した場合は、米国も同様の措置を講じざるを得ないだろうと彼らも認めていることです。それが本当のリスクなのです。つまり、どこかの国が一線を越えたら、他国も競争力を維持するだけのために、同種の対抗手段で応酬する必要があると考える可能性があるのです。
——この種の約束は本当に信用できるのでしょうか?
殺傷能力の高い武器の行使に対する責任を人々に負い続けてほしい、との国防高官の思いは切実だと思います。自律兵器が暴走するような事態を軍事専門家が望んでいないことも確かです。そうは言っても、殺傷能力の高い武器に対する人類の責任といった幅広い概念を、どのような種類の武器が許されるかという具体的な技術工学上のガイダンスに転換する方法はいまだ分からないままです。「自律兵器」を構成するものの定義がすでに議論の的になっているので、この種の原則を実行に移す方法については、さまざまな意見が出る可能性があります。
——なぜテクノロジストが関わる必要があるのでしょうか?
AI研究者がこのような対話に参加する必要があるのは、研究者らの技術的な専門知識が政策選択の形成で重要な役割を果たすからです。私たちは、AIの偏見、透明性、説明可能性、安全性、その他の懸念事項を考慮に入れ …
- 人気の記事ランキング
-
- The winners of Innovators under 35 Japan 2024 have been announced MITTRが選ぶ、 日本発U35イノベーター 2024年版
-
Promotion
The winners of Innovators under 35 Japan 2024 have been announced
MITTRが選ぶ、
日本発U35イノベーター
2024年版 - AI will add to the e-waste problem. Here’s what we can do about it. 30年までに最大500万トン、生成AIブームで大量の電子廃棄物
- Kids are learning how to make their own little language models 作って学ぶ生成AIモデルの仕組み、MITが子ども向け新アプリ
- OpenAI brings a new web search tool to ChatGPT チャットGPTに生成AI検索、グーグルの牙城崩せるか