グーグルのAI倫理規程、軍事利用と距離を置くことはできるのか?
知性を宿す機械

Don’t be AI-vil: Google says its algorithms will do no harm グーグルのAI倫理規程、軍事利用と距離を置くことはできるのか?

グーグルは、同社の人工知能(AI)技術が軍に使用されることに反対して多数の社員が退職したことを受けて、同社の技術の軍用化に関する新たな倫理規定を発表した。しかし、多くのIT企業にとって防衛産業は巨大な市場であり、軍との関係を一概に断ち切ることはできないだろう。 by Will Knight2018.06.11

グーグルが自律兵器の開発を禁止する人工知能(AI)の倫理規定を作った。ただこの原則には、もうけになる防衛産業の恩恵をグーグルもいずれは受けられるよう、十分な余地が残されている。

グーグルでは以前、同社のAI技術が「アルゴリズム戦争クロスファンクショナル・チーム(AWCFT:Algorithmic Warfare Cross-Functional Team)」と呼ばれる米国防総省のイニシアチブに使われたことに対して、社内で大きな抗議行動が起こった。今回の発表は、その抗議行動を受けてのものだ。内部では「プロジェクト・メイブン(Project Maven) 」として知られるこのプロジェクトの目標の1つは、ドローンによる攻撃の精度を向上させることである。

先月、このスキャンダルをめぐって多数のグーグル社員が退職し、さらに多くの社員が公開抗議文に署名した。

この騒動は、テクノロジーが将来、いかに戦争の自動化に使われるかについて多くの人が抱いている恐れを反映している。しかしながら、状況はそう単純ではない。

AIは、兵器システムをより安全でエラーを起こしにくいものにするのに役立つかもしれない。加えて、防衛産業全体にわたって数多くのAIが日常用途に使われている。グーグルはクラウドAI技術にとっての巨大な潜在市場を否定したくはないのだ。

グーグルのサンダー・ピチャイ最高経営責任者(CEO)は、6月7日のブログ記事で今回の新規定を発表した。記事の中でピチャイCEOは、グーグルのAI使用の手引きとなる7つの原則を提示している。社会に利益をもたらすこと、偏見的アルゴリズムを避けること、プライバシーを尊重すること、安全性をテストすること、一般市民に対する説明責任を果たすこと、科学的な厳密さを維持すること、これらの原則に従って利用できるようにすること、である。

ピチャイCEOはまた、グーグルは危害を加える一切のものの開発のためにAI技術を使うことを認めないと言明することにも骨折っている。それは「実装が人に傷害を与えたり、直接的に助長したりすることを主な目的とする兵器やその他のテクノロジー」を含んでいる。

グーグルはさらに、国際的に認められた基本的人権に関する規範を破る監視用テクノロジーも、国際法に違反するいかなるテクノロジーの開発も避けるという。

AIは急速に発展しており、グーグルはAIプロジェクトに関わる他の問題にもぶち当たっている。たとえば同社のコンピューター・ビジョン・システムの1つが、アフリカ系の人々を誤ってゴリラとして分類した。グーグルは今年4月に「邪悪になるな(Don’t be evil)」というモットーを放棄したが、理想主義的な文化を今でも保持している。

軍によるAIの使用は今後ますます論争を引き起こす可能性がある。AI技術は新たな方法で導入されているし、企業は自社クラウドAI技術をできるだけ広範に売りつけようとしているからだ。

機械学習やAIが今後、諜報や防衛にとってますます重要となることは避けられない。 アマゾンやマイクロソフトなどの他の米ハイテク企業は、ペンタゴン(米国防総省)の数十億ドル規模のクラウド・コンピューティング・プロジェクトへ参画を虎視眈々と狙っている。