生成AIの「キラキラしない」未来に期待する理由
知性を宿す機械

Why we should all be rooting for boring AI 生成AIの「キラキラしない」未来に期待する理由

生成AIブームは軍事分野にも影響を与え、スタートアップは活況を呈している。だが、人間の生命に直接関わるような用途よりも、もっと退屈でつまらない仕事でAIを使うべきだ。 by Melissa Heikkilä2023.09.20

この記事は米国版ニュースレターを一部再編集したものです。

先日掲載した、戦争における人工知能(AI)の厄介な倫理に関するこの記事は、夏季休暇から仕事に戻った私の血圧を再び上昇させる気付け薬になった。

アーサー・ホランド・ミッチェルは、戦争と軍によるAIツールの使用増加に関する複雑で微妙な倫理的問題を見事に分析している。AIが致命的な失敗を犯したり、紛争で悪用される可能性はいくらでもあり、そのような事態を防ぐための現実的なルールはまだ存在しないようだ。この記事は、物事が誤った方向に進んだとしても、人々に責任を負わせることがいかに少ないかを物語っている。

私は昨年、ウクライナ戦争がいかにして防衛AIスタートアップのビジネスの新たなブームの火付け役となったのか、記事を書いた。最新のハイプ・サイクルはそれに拍車をかけ、企業だけでなく、今となっては軍までも、生成AIを製品やサービスに組み込もうと競争している。

米国防総省は8月10日、生成AIタスクフォースを設置すると発表した。 省全体を対象に、大規模言語モデルなどのAIツールを「分析・統合」することを目的としたものだ。国防総省は、「インテリジェンス、作戦計画、管理・業務プロセスの改善」に大きな可能性を見出しているという。

だが、ホランド・ミッチェルの記事は、インテリジェンスと作戦計画の改善におけるAIの活用例が、なぜ悪いアイデアとなり得るのかを浮き彫りにしている。大規模言語モデルのような生成AIツールは、欠陥が多い上、予測不可能で、物事をでっち上げる。また、非常に大きな脆弱性プライバシーの問題、そして深く組み込まれたバイアスの問題もある。

このようなテクノロジーをいちかばちかの状況で使ってしまうと、致命的な事故につながる可能性がある。そしてその事故の責任を、誰が、あるいは何が負うべきか分からなくなってしまう。なぜ問題が起きたのかとさえもはっきりしない。最終的な判断を下すのは人間であるべきだということは誰もが認めるところだが、予測不可能な行動をとるテクノロジーの特性ゆえに、特に動きの速い紛争の最中に人間が判断を下すことは、より難しくなってしまう。

物事が上手く行かなかったときに、最下層の人々が最も大きな代償を払うことになると心配する人もいる。「人間が間違っていたか、コンピューターが間違っていたか、あるいは両者が間違っていたかにかかわらず、非難を集中的に浴びるのはその「決断」を下した人物であり、そのおかげで指揮系統に携わった他の人物らは責任を負うことを完全に免れるのである」とホランド・ミッチェルは綴っている。

AIが戦争で失敗しても、唯一影響も受けることがなさそうなのは、テクノロジーを提供している側の企業だ。

米国が戦争時にAIを管理するために設定したルールが、法律ではなく単なる勧告であることは、企業にとって好都合だ。これで、誰かに責任を負わせることが本当に難しくなる。欧州連合(EU)がこれから導入する高リスクのAIシステムに対する包括的な規制であるAI法でさえ、あらゆる応用例の中で最もリスクが高い軍事利用を除外している。

誰もが生成AIのワクワクするような新しい用途を探しているが、私個人としては、それが退屈になるのが待ちきれない。

人々が生成AIに興味を失い始めている初期兆候が見える今、企業はこの種のツールが人類最大の問題を解決することよりも、平凡なリスクの低い応用法に適していると気づくかもしれない。

例えば、エクセルやメール、ワードなどの生産性ソフトウェアにAIを適用することは、それほど刺激的なアイデアではないかもしれないが、戦争に比べれば比較的リスクの低い応用例であり、実際に宣伝通りに機能する可能性があるほどにシンプルなものだ。AIは、我々の仕事のうちの退屈な部分を、より迅速に、より上手に処理するのを手助けしてくれるかもしれない。

退屈なAIは簡単には壊れないだろうし、最も重要なことは、誰も殺さないことだ。上手くいけば、私たちがAIとやりとりしていることもすぐに忘れてしまうだろう(機械翻訳がAIのワクワクするような新機能だったのは、それほど昔のことではない。今やほとんどの人は、グーグル翻訳を動かす上でAIが果たす役割など考えもしない)。

だからこそ私は、国防総省のような組織が、管理や業務プロセスに生成AIを適用することに成功を見出すと確信している。

退屈なAIは道徳的に複雑なものではないし、魔法でもない。だが、機能するのだ。

感情認識はなぜ規制されるのか?

EUと米国の規制当局は感情認識に対する警告を強めている。感情認識は、動画、顔画像、音声録音のAI分析を利用して、人の感情や心理状態を特定しようとする試みだ。

しかし、なぜこれが懸念事項になるのだろうか? 欧米の規制当局は特に、中国がこのテクノロジーを使用し、社会統制ができるようになる可能性を懸念している。また、単純に正しく機能しないという証拠もある。本誌のテイト・ライアン・モズリー記者は感情認識テクノロジーに関する数々の厄介な問題を詳細に分析している。

AI関連のその他のニュース

オープンAIがコンテンツ・モデレーションでGPT-4をテスト中。オンライン・コンテンツのモデレーションに言語モデルを使用すれば、コンテンツ・モデレーションが人間に与える精神的負担を軽減するのに役立つ可能性がある。オープンAIは、このテクノロジーが高度な訓練を受けた人間を凌駕するものではないとしながらも、初期の検証で複数の有望な結果を確認したと述べている。しかし、このツールが異なる文化に順応し、文脈やニュアンスを拾い上げることができるか、多くの大きな未解決の疑問が残っている。(オープンAI

グーグル、人生相談に乗るAIアシスタントを開発中。生成AIツールは、人生の指南役として機能し、アイデアを出し、指示を計画し、ヒントを教えるものになる可能性がある。(ニューヨーク・タイムズ

動物から着想を得たAIシステムを構築するために、2人のテック界の有名人が職場を去る。新しいAI研究機関「サカナ(Sakana)」は、動物界からインスピレーションを得ている。業界の著名な研究者である元グーグル社員の2人が設立したサカナは、連携して動作する複数の比較的小さなAIモデルを作ることを計画している。これは、プログラムの「群れ」が単一の大規模AIモデルと同じくらい強力になる可能性があるという考え方だ。(ブルームバーグ