AI規制、オープンAIと米国政府の思惑は一致するか?
知性を宿す機械

Suddenly, everyone wants to talk about how to regulate AI AI規制、オープンAIと米国政府の思惑は一致するか?

生成AI騒動を受けて、米国議会でAI規制の気運が急速に高まっている。そのこと自体は歓迎すべきだが、AI規制に対するこれまで取り組みをないがしろにするのは好ましくない。 by Melissa Heikkilä2023.06.21

この記事は米国版ニュースレターを一部再編集したものです。

人工知能(AI)政策について、急に議論が始まったように感じる。長年にわたり、米国の議員やテック企業は、厳格なテクノロジー規制の導入に対し、完全に反対とまではいかずとも消極的な姿勢をとっていた。それが今、両者ともに規制導入を懇願しているのだ。

先日、オープンAI(OpenAI)の最高経営責任者(CEO)であるサム・アルトマンが米上院の委員会に出席し、AI言語モデルのリスクと可能性について語った。アルトマンCEOは、多くの上院議員とともにAIに国際基準を定めるよう求め、AIを規制し、米国食品医薬品局(FDA)のようなAI規制のための新機関を設立するよう連邦政府に要請した。

私のようなAI政策ウォッチャーには、上院の公聴会は心強くも、苛立たしくもあった。この対話が実のない自主規制の推進を超え、実際に企業に責任を負わせられる規則へと焦点を移したように見えたことは、心強く感じている。苛立たしいのは、その議論が、この5年以上のAI政策を忘れてしまったように見えることだ。本誌は、AIテクノロジーを規制するための既存の国際的な取り組みについて考察した記事を公開している(こちらでご覧いただきたい)。

このように感じているのは、私だけではない。  「議会がゼロ地点からの出発を示唆することは、業界の好む筋書きを助長するだけです。つまり、議会は大変に遅れていて、テクノロジーを理解していないということになります。それでどうして規制することができるでしょうか」と、ジョージ・ワシントン大学データ民主主義・政策研究所の政策フェローであり、元米国議会スタッフでもあるアンナ・レンハートは言う。

実際に、2021年1月から2023年1月まで開催された議会に参加した政治家は、AIに関連して多くの法案を提出した。レンハートは、その期間に提案されたすべてのAI規制について素晴らしいリストを作成した。そのリストは、リスク評価から透明性、データ保護まであらゆる課題を網羅している。そのいずれも、大統領のデスクには到達しなかった。しかし、喧々諤々の議論を引き起こし、多くの人にとってはゾッとするような新たな生成AIが連邦政府の注目を集めていることから、レンハートはそれらのいくつかが改訂され、何らかの形で再び取り上げられることになると予想している。

注目すべきものをいくつか紹介しよう。

アルゴリズム説明責任法(AAA)

この法案は、 チャットGPT(ChatGPT)が登場する以前、2022年に米国議会と上院で民主党 によって提出された。国民に対して鎮痛薬治療を認めなかったり、住宅ローン申請を拒否したりするような、自動意思決定システムの明らかな害に対処するためのものである。

この法案により企業は、アルゴリズムによる影響評価とリスク評価を実施するよう義務付けられるだろう、とレンハートは言う。また、AIに関する規則の規制と執行を米国連邦取引委員会(FTC)に任せ、同委員会のスタッフを増員しようとする法案でもある。

米国データ・プライバシー保護法(ADPPA)

この超党派の法案は、企業がデータを収集し、取り扱う方法を規制するための試みであった。これは、 ロー対ウェイド判決(日本版注:中絶禁止を違憲とした判決)が覆された後、女性が個人的な健康データを安全に保つことを助ける方法として、大きな勢いを得た。しかし、期限内の可決には至らなかった。生成AIのリスクをめぐる議論から、前回よりも先へ進めるために緊急性が高まる可能性がある。ADPPAは、差別的な方法によるデータの収集・処理・譲渡を生成AI企業に禁止する。また、企業がデータをどのように利用するかについて、ユーザーにより多くの管理権限を与えるものでもある。

AI庁

公聴会では、アルトマンCEOと数人の上院議員が、AIを規制するための新しい米国機関が必要であると提言した。これについては、少し無関係な話だと私は思う。米国政府には、新しい機関であれ、見直された既存の機関であれ、このテクノロジーを規制するためにより多くの技術的専門知識とリソースが必要である、とレンハートは指摘する。さらに重要なのは、新旧を問わず、規制当局には法律を執行する権限が必要であるいう点だ。

「機関を設置しても、それに一切の権限を与えないことは簡単です」とレンハートは言う。

米民主党は、デジタルプラットフォーム委員会法データ保護法オンラインプライバシー法によって新たな保護を設定しようとした。しかし、これらの試みは失敗に終わった。超党派の支持を欠くほとんどの米国法案は、そうなる運命なのだ。

今後の展開 

テクノロジーに特化した、別の機関が登場する可能性が高い。共和党のリンジー・グラハム上院議員と民主党のエリザベス・ウォーレン上院議員は、ソーシャルメディア企業を取り締まり、おそらくはそうした企業を認可する権限もある、新たなデジタル規制当局の創設に向けて連携している。

民主党のチャック・シューマーも、AIの害に特化して対処するための新法案を提出するために上院で協力者を募っている。シューマーは、包括的なAI法案をまとめるために超党派の支持を集めている。それにより、責任あるAI開発の促進を目指した防護策を設置しようとしているのだ。たとえば企業は、テクノロジーの公開前に外部の専門家による監査を実施し、AIシステムに関してユーザーと政府に詳細情報を提供するよう義務付けられることになるかもしれない。

アルトマンCEOは、上院司法委員会を味方にしたように見える。だが、AI規制への包括的手法が立法化するためには、下院と上院の両方で商業委員会のリーダーたちから賛同を得る必要があるとレンハートは言う。

こうしたプロセスには、スピードが求められている。生成AIへの関心を人々が失う前に、実現する必要があるのだ。

「簡単なことではありませんが、可能性はあります」とレンハートは言う。

1000以上の言語で言葉の認識と生成ができるメタのAIモデル

メタは、1000以上の言語で音声の認識と生成が可能なAIモデルを構築した。利用可能な言語数は、これまでの10倍だ。

消滅の危険にさらされている言語の保存のために、これが重要な一歩であると同社は述べている。世界には、およそ7000の言語が存在する。ところが、既存の音声認識モデルが包括的に対象とするのは、約100言語のみである。この種のモデルは、ラベル付けされた膨大な量の訓練用データを必要とするが、そうしたデータは、英語、スペイン語、中国語をはじめとする少数の言語でしか用意されていないのだ。  詳しくは、こちらの記事へ。

AI関連のその他のニュース

グーグルとアップルの写真アプリはいまだにゴリラを見つけられない。8年前、グーグルの写真アプリが黒人の写真を誤ってゴリラとラベル付けした。同社は、一時的な措置として、どんな写真にも類人猿のラベル付けがされないようにした。しかし数年が経ち、コンピューター・ビジョンに大きな進歩があったにもかかわらず、テック企業はこの問題に解決策を見つけられずにいる。(ニューヨーク・タイムズ誌

アップルは従業員にチャットGPTの使用を禁止している。同社はチャットGPTが自社の機密情報を漏洩することを懸念している。これは無分別な懸念ではない。オープンAIはほんの数カ月前、ユーザーのチャット履歴を漏洩したバグのためにチャットGPTをオフラインにしなければならなかったのだ。(ウォール・ストリート・ジャーナル紙

AIはいかにしてすべての人の労働を崩壊させるのか。テック大手がオフィスツールへAIを統合しようとする動きは、人による労働の終わりを意味しない。起こるのは逆のことだ。仕事が簡単になるほど、人はより多くを求められるようになるのだ。チャーリー・ワーゼルが述べているように、このAIブームの行方は、スカイネット(映画「ターミネーターシリーズ」に登場する架空のAI)というよりもベイン・アンド・カンパニー(Bain & Company、米国に本拠を置くコンサルティング企業大手)になるだろう。(アトランティック

バード(Bard)は、「ketchup(ケチャップ)」に「e」が使われる回数を知っているのか。これは、大規模言語モデルの仕組みを暴くという、真剣な目的を備えた面白みのある記事だった。グーグルのチャットボット「バード」は、さまざまな単語の文字数を把握していない。個々の文字を認識する代わりに「トークン」を使って単語を形成しているというのがその理由だ。たとえば、バードは「ケチャップ」という単語の最初の文字を「k」ではなく「ket」として捉えている。 (ザ・ヴァージ