AIは「普通」の技術、プリンストン大のつまらない提言の背景
AIについて人々は、超知性や軍拡競争と絡めて過度にユートピア的、あるいはディストピア的に語りがちだ。米プリンストン大学の研究チームは、AIを「普通のテクノロジー」として捉え、冷静な議論を呼びかけている。 by James O'Donnell2025.05.07
- この記事の3つのポイント
-
- AIは超知性ではなく「普通の技術」として扱うべきというプリンストン大学研究者の提言
- AIの社会への浸透は津波のように一気ではなく「雫」のようにゆっくり進む現実
- 派手な「超知性対策」より地味だが重要な「民主的制度強化・AIリテラシー向上」を優先すべき
人工知能(AI)は現在、あらゆるところに存在しているにもかかわらず、普通の技術とはみなされていない。まもなく「超知性」という言葉にふさわしいAIシステムが登場するという話があり、グーグルの元CEO(最高経営責任者)は最近、ウランやその他の核兵器の材料を管理するのと同じようにAIモデルを管理すべきだと述べた。アンソロピック(Anthropic)は、AIモデルにどのような権利があるかを含め、「AIウェルフェア(AIモデルへの道義的配慮)」の研究に時間と資金を投入している。そうしている間にも、AIモデルは、音楽を作ることからセラピーを提供することまで、明らかに人間的な分野に進出している。
AIの未来について深く考える者が、ユートピア的かディストピア的のどちらかの陣営に落ち込む傾向にあるのは不思議ではない。オープンAI(OpenAI)のサム・アルトマンCEOがAIの影響は産業革命よりもルネサンスのように感じられるだろうと考えている一方で、半数以上の米国人はAIの未来に興奮するよりも懸念をしている(その半数には私の友人も数名含まれており、最近のパーティで、AIに抵抗するコミュニティが登場するのではないかと推測していた。AIを制限することを必要ではなく選択とする現代のメノナイトのような存在である)。
このような状況において、プリンストン大学の2人のAI研究者による最近のエッセーは、かなり挑発的だ。同大学の情報技術政策センター(Center for Information Technology Policy)所長のアルビンド・ナラヤナン教授と博士課程生のサヤシュ・カプールは、AIを普通のテクノロジーとして冷静に捉えるべきだとする40ページに及ぶ論考を発表した。これは、「AIを別の種、高度に自律的で超知能を備える可能性がある存在」とみなす一般的な傾向とは対照的である。
ナラヤナン教授らによると、AIは汎用技術であり、その応用は核兵器よりも、電力やインターネットの長期にわたる採用と比較する方が適切かもしれないとのことだ。ただし、これはある面で不完全な類推であることを認めている。
カプールは、AIの手法の急速な発展と、AIの実際の応用から生まれるものとを区別し始める必要があると言う。AIの手法とは、ラボでAIができることを派手に印象付けるものだ。一方、AIの応用は、歴史に見る他の技術の例よりも数十年遅れている。
「AIの社会的影響に関する多くの議論は、この導入プロセスを無視し、技術開発の速度で影響が現れると想定しています」とカプールは語る。つまり、彼によれば、AIの有用な導入は津波ではなく、むしろ雫のようにゆっくりと進むということだ。
このエッセーでは、他にも重要な指摘がなされている。「超知性」のような用語は極めて曖昧かつ思弁的であり、使用すべきではないという意見や、AIはすべてを自動化するのではなく、AIを監視・検証・管理する新たな人間労働の形を生み出すという見解、さらには新しい問題の創出よりも既存の社会問題を悪化させる可能性に注目すべきだという主張である。
「AIは資本主義を一層加速させるでしょう」とナラヤナン教授は言う。AIは、その運用方法次第で、不平等を助長し、労働市場や自由な報道、民主主義を後退させる可能性があるというのだ。
しかし、ナラヤナン教授らが今回の論考で触れていない懸念すべきAIの配備がひとつある。それは軍隊によるAIの利用だ。軍でのAI利用は急速に拡大しており、生死を左右する判断にAIが関与するケースが増えている。もっとも、同教授らは機密情報にアクセスできないことからこの問題を論考から除外しているが、近くこのテーマに関する研究を発表する予定だと述べている。
AIを「普通」のテクノロジーとして扱うことの最も大きな意味合いの1つは、バイデン政権と現在のトランプ政権の両方が掲げてきた立場を覆すことになるということだ。つまり、最高のAIを構築することは国家安全保障上の優先事項であり、連邦政府は、中国に輸出できるチップを制限したり、データセンターにより多くのエネルギーを投入したりして、一連の行動を取るべきだという立場である。今回のエッセーで2人の著者は、米中の「AIの軍拡競争」に関する言説を「耳障りな」ものだと言及している。
ナラヤナン教授は、「軍拡競争というフレーミングは不条理に近いものです」と述べている。強力なAIモデルを構築するために必要な知識は急速に広まっており、世界中の研究者がすでに取り組んでいると述べ、「そのような規模で秘密を守ることは不可能です」と続ける。
では、ナラヤナン教授らはどのような政策を提案しているのだろうか。SF的な恐怖を中心に計画を立てるのではなく、「民主的な制度の強化、政府の技術的専門知識の向上、AIリテラシーの改善、防衛側にAIを採用するインセンティブの付与」の必要性について、カプールは述べている。
AIの超知能を制御したり、軍拡競争に勝利したりすることを目的とした政策とは対照的に、これらの提言はまったくつまらないように聞こえる。そして、それこそが重要なポイントなのだ。
- 人気の記事ランキング
-
- AI companions are the final stage of digital addiction, and lawmakers are taking aim SNS超える中毒性、「AIコンパニオン」に安全対策求める声
- How creativity became the reigning value of our time 誰もが疑わない現代の価値観 「創造性」という幻想は いかにして創り出されたか
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
- Phase two of military AI has arrived 米軍で導入進む「戦場のLLM」、未解決の3つの課題とは?

- ジェームス・オドネル [James O'Donnell]米国版 AI/ハードウェア担当記者
- 自律自動車や外科用ロボット、チャットボットなどのテクノロジーがもたらす可能性とリスクについて主に取材。MITテクノロジーレビュー入社以前は、PBSの報道番組『フロントライン(FRONTLINE)』の調査報道担当記者。ワシントンポスト、プロパブリカ(ProPublica)、WNYCなどのメディアにも寄稿・出演している。