バイデン撤退で米国のAI規制は振り出しに戻るのか?
これまでに、AIによる被害から国民を守るための規制に力を入れてきたバイデン大統領が、次期大統領選から撤退した。これで有利になったトランプ候補はAI規制にはあまり積極的ではなく、軍用AIの推進も考えているという。大統領選の結果は、AI業界をどの方向に導くのだろうか。 by Melissa Heikkilä2024.08.07
この記事は米国版ニュースレターを一部再編集したものです。
7月21日、ジョー・バイデン大統領はドナルド・トランプ氏を相手とした次期米大統領選から撤退すると発表した。
しかし人工知能(AI)分野に詳しい人なら、ちょうど1年前の2023年7月21日に、バイデン大統領がホワイトハウスでトップハイテク企業7社の幹部とポーズをとっていたことを覚えているかもしれない。バイデンは当時、AIを対象とする非常に厳格な8つの規制についてAI大手各社の幹部たちと交渉しており、合意を得たところだった。たった1年でも、こんなにも状況が変わるのかと驚いている。
この自主的な規制は、ほとんど何のルールもなく自由に強力なテクノロジーを開発してきたAI業界にとって、非常に重要な指針として歓迎された。それ以来、さらに8社がこの取り組みに署名し、ホワイトハウスはこの規制をさらに広げる大統領令を出した。例えば、新たなAIモデルが国家安全保障にリスクをもたらす可能性があるとテストの結果から判明したら、開発者はテスト結果を米国政府と共有しなければならない、といった内容だ。
米国の政治は極端に二分化しているため、AI規制がすぐに可決される可能性は低い。従って、このような取り決めは、AIによる被害から人々を守るという点で、独占禁止法や消費者保護規則などの既存の法律と合わせて、米国が打てる最善の手である。この自主的な取り決めからちょうど1年の節目を迎えたところで、私はその後起こったことを調べてみることにした。自主的な取り決めに最初に署名した7社に、取り決めを遵守するために何をしてきたかをできるだけ詳しく教えてくれるよう依頼し、その回答を数名の外部専門家と検証し、どれだけの進歩があったかをお伝えするために最善を尽くした。 その記事はこちらでご覧いただける。
シリコンバレーは、イノベーションの妨げになるという理由から、規制を嫌っている。現在のところ米国は、消費者を被害から守る上で、IT業界各社の善意に頼っている。しかし各社は、自分たちの都合でいつでも方針を変更でき、その結果の責任を負うことはない。そして、これが拘束力のない取り決めの問題点だ。簡単に署名できるが、忘れるのも簡単なのだ。
とはいえ、拘束力のない取り決めに価値がないというわけではない。 AI開発に関する規範を作り上げ、企業により良い行動をとるよう世論の圧力をかける上で役立つからだ。わずか1年の間に、IT業界各社はAIレッドチーム、電子透かし、AIシステムの安全なものにする研究への投資など、いくつかの前向きな変化を遂げていた。しかし、この種の取り決めは各社が自主的に参加するものだ。つまり、いつでも撤退できてしまう。そこで、AIの世界に関する次なる大きな疑問が湧いてくる。バイデン大統領の後継者が、米国のAI政策をどのような方向に導くのだろうか。
ドナルド・トランプ候補が11月の大統領選で勝利しても、AI規制に関する議論が消えてしまうことはないだろうと、カリフォルニア大学バークレー校のゴールドマン公共政策大学院で准教授を務め、CITRIS政策研究所の所長でもあるブランディー・ノンネッケはいう。
「AIの用途に関しては、政党により懸念点が異なることがあります。一方は雇用への影響を懸念し、もう一方は偏見や差別をより懸念します」と、ノンネッケ准教授はいう。「しかしAiがもたらす影響が超党派的な問題であることは明らかで、米国でのAI開発にはある程度の規制や監視が必要です」と、彼女は付け加えた。
トランプ候補はAIに精通している。前回の大統領在任中には、AI研究への投資拡大を求める大統領令に署名し、連邦政府にAIをより活用するよう求め、国家AIイニシアチブ(National AI Initiative Office)を新設している。また、責任あるAIの実現に向けた指針も発表している。報道によれば、トランプ候補が大統領に復帰したら、バイデン大統領の大統領令を撤回し、AI規制を緩和して、軍事用AIを強化する「マンハッタン計画」を立ち上げる独自のAI大統領令を出すという。一方のバイデン大統領は、拘束力のあるAI規制を可決するよう議会への要求を続けている。 シリコンバレーの億万長者たちがトランプ候補を支持するのは当然だろう。
既存の物理学とAIを組み合わせたグーグルの新しい気象予測モデル
グーグル・ディープマインド(Google DeepMind)の研究者たちは、ニューラルGCN(NeuralGCN)という名の新しい気象予測モデルを作り上げた。これは従来の手法に機械学習を組み合わせたものであり、現在に比べてわずかなコストで正確な予報が得られる可能性を秘めている。この数年間で気象予測の専門家たちは、既存の物理学とAIの間に大きな溝ができたと考えているが、その溝を解消するものだ。
何が重要なのか?何年にも渡る過去のデータを学習し、未来の気象を予測する最新の機械学習手法は、非常に高速で効率も良いが、長期予測に苦労することがある。過去50年にわたり気象予測の世界で主要な手法であり続けている大循環モデルは、複雑な方程式で大気の変化をモデル化することで、精度が高い予測ができるが、かなりの時間がかかる上、費用がかさむ。今後最も信頼できる手法については、専門家の間でも意見が分かれていたが、グーグル・ディープマインドの新モデルは、2つの手法を組み合わせてみた。その結果、コンピュータの計算能力を節約しながら、精度の高い予測を素早く実行できるモデルが完成したと研究者はいう。 詳しくは本誌のジェームス・オドネル記者によるこの記事で読める。
AI関連のその他のニュース
- 近い将来、AIが動く仕組みを明らかにする目的で、AIを「脱獄」させることが合法となる可能性がある。米国政府は現在、「米国著作権法における例外」を検討している。この例外が成立したら、バイアスや有害コンテンツについて調べたり、AIの学習に使ったデータを調査するために、AIシステムの技術的防御を破ることが容易になるかもしれない。(404メディア)
- AIの原動力となる学習データが急速な勢いで消え去っている。ニュース・サイトなどのWeb記事は、AIの学習データとして最も重要なものだが、記事を提供する企業の多くは、昨年から、他社によるスクレイピングを禁じるようになった。マサチューセッツ工科大学(MIT)の調査によると、全データの5%、最高品質の供給源からのデータの25%が制限されている。(ニューヨーク・タイムズ)
- オープンAI、新しいAIチップの開発を目指して米ブロードコム(Broadcom)と協議中。オープンAIの最高経営責任者(CEO)であるサム・アルトマンは、AIチップ市場をほぼ独占しているエヌビディア(Nvidia)への依存度を下げるために、半導体関連の新しい事業に取り組んでいる。同社はブロードコムなど、多くの半導体設計業者と協議しているが、結果が出るまでに何年もかかる可能性がある。実現すれば、オープンAIがより高性能なモデルの構築に使えるコンピューティング能力が大幅に向上するだろう。(ジ・インフォメーション)
- 人気の記事ランキング
-
- A tiny new open-source AI model performs as well as powerful big ones 720億パラメーターでも「GPT-4o超え」、Ai2のオープンモデル
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Geoffrey Hinton, AI pioneer and figurehead of doomerism, wins Nobel Prize in Physics ジェフリー・ヒントン、 ノーベル物理学賞を受賞
- Geoffrey Hinton tells us why he’s now scared of the tech he helped build ジェフリー・ヒントン独白 「深層学習の父」はなぜ、 AIを恐れているのか?
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。