KADOKAWA Technology Review
×
ひと月あたり1000円で購読できる春のキャンペーン実施中!
2023年、EUのAI規制は「生成AI」ブームをどう変えるか?
Erica Snyder/MITTR | Pixabay
The EU wants to regulate your favorite AI tools

2023年、EUのAI規制は「生成AI」ブームをどう変えるか?

2022年は、ステーブル・ディフュージョンやチャットGPTなどの「生成AI」が人々を驚かせた年になった。2023年にAIの世界はどのように変わるのだろうか。EUのAI規制の行方にも注目だ。 by Melissa Heikkilä2023.02.01

この記事は米国版ニュースレターを一部再編集したものです。

年末年始、私は雪の降るフィンランドへ帰省し、インターネットから完全に離れて過ごした。至福の時だ。 皆さんも休息をしっかりとられたことを願う。なぜなら今年はAIの世界が2022年以上に騒々しくなりそうだからだ。

2022年は、テキストから画像を生成する「ステーブル・ディフュージョン(Stable Diffusion)」や、テキストを生成する「チャットGPT(ChatGPT)」など、いわゆる生成AI(ジェネレーティブAI)が大きな話題となった。コンピューターにそれほど詳しくない多くの人が、AIシステムを実際に体験する最初の年となった。

休暇中はAIのことを考えないようにしていたにもかかわらず、会う人の誰もがその話をしたがっているようだった。友人の従兄弟は大学の課題の作文を書くのにチャットGPTを使ったと白状した(そしてAIが生成したテキストを検知する方法に関する記事を私がつい最近書いたと聞いて青ざめた)。たまたまバーで会った人は、こちらから促したわけでもないのに話題のレンザ(Lensa)アプリを使ってみたことを話し始めた。またあるグラフィックデザイナーは、AI画像生成ツールの登場にピリピリしていた。

2023年はもっと多くのさまざまな切り札をもつAIモデルが出てくることだろう。本誌のウィル・ダグラス・ヘブン編集者と私は、2023年のAI分野で起きることを予測してみた。

予測の1つとして私は、曖昧で高度な倫理ガイドラインから、具体的な規制による線引きへとAI規制の様相が移行していくのではないかと見ている。欧州連合(EU)の規制当局はAI関連の規則を成立させ、連邦取引委員会(FTC)など米国の政府機関も独自の規則を検討している。

ステーブル・ディフュージョン、ラムダ(LaMDA)、チャットGPTなど、最近大きな話題を呼んだ、画像やテキストを生成するAIモデルについて、欧州の法律家たちはそのルール作りに取り組んでいる最中だ。これにより、企業が安全対策を施したり説明責任を果たしたりすることをほとんどしないまま、AIモデルをネットワーク上に放つ時代が終わりを迎えるかもしれない。

上述のAIモデルは、ますます多くのAIアプリの骨格となりつつあるが、AIモデルを作る企業は、それがどのように構築され、訓練されているかについて秘密主義を貫いている。AIモデルがどのように機能するのか、我々はほとんど知らないため、どのように有害コンテンツや偏った結果を生成するのか、そしてこのような問題をいかに回避できるのかを理解することが難しい。

EUは、間もなく制定される「AI法」という包括的なAI規制の更新を計画しており、企業にAIモデルの内部構造を明らかにすることを義務付けた規則を設ける予定だ。2023年後半に可決される可能性が高く、可決されれば、EU加盟国でAI製品を販売または使用したい企業は遵守しなければならない。さもなくば、世界中での年間総売上高の6%に相当する罰金が科されることになる。

EUは生成型AIモデルを「汎用目的型AI(general-purpose AI)」システムと呼んでいる。さまざまな目的に利用できるからだ(人工超知能の概念を指す「汎用AI(AGI:Artificial General Intelligence)」と混同することのないように注意)。例えばGPT-3のような大規模言語モデルは、カスタマー・サービスのチャットボットにも大規模な偽情報の作成にも応用可能だ。またステーブル・ディフュージョンは、グリーティング・カードの画像にも非合意のディープフェイク・ポルノの画像作成にも使える。

こうしたAIモデルを、AI法で具体的にどのように規制するかについては、まだ激しい議論の最中だ。だが、オープンAI(OpenAI)、グーグル、ディープマインド(DeepMind)といった汎用目的型AIモデルを作り出す企業は、自社モデルがどのように構築され訓練されているか、情報を開示しなければならなくなるだろうと、AI法について審議している委員会のメンバーである欧州議会のリベラル派議員、ドラゴス・トゥドラケは言う。

ブルッキングス研究所(Brookings Institution)でAIガバナンスを研究するアレックス・エングラーによると、こうした技術を規制をするのは厄介だという。生成型AIモデルに関する問題には大きく2種類あり、解決には大きく異なる政策がそれぞれに必要だからだ。1つは、ヘイト・スピーチや非合意のポルノといった有害なAI生成コンテンツが拡散されるという問題。もう1つは、企業がAIモデルを人材採用のプロセスに組み込んだり、法的文書の審査に使ったりしたときに、結果が偏る恐れがあるという問題だ。

AIモデルに関する情報をより多く共有すれば、そのAIモデルを利用した製品を作っている第三者企業には役立つかもしれない。だが有害なAI生成コンテンツの拡散に関しては、より厳格なルールが必要だ。生成型AIモデルを開発する企業は、そのAIモデルが作り出すものについて制限をかけ、制作物を監視し、その技術を悪用するユーザーを禁止措置にすることを義務付けるべきだとエングラーは提言する。しかしエングラーが提言する策をもってしても、有害なものを確信的に拡散しようとする人物を止めることは難しいだろう。

テック企業は、自らの製品に関する秘密を明かすことを嫌うものだが、透明性と企業の説明責任を義務付けようとする規制当局の現在の動きが、AI開発がもっと搾取的でなく、プライバシーなどの権利を尊重するようになる新時代の到来につながるのかもしれない。そう考えると今年は希望が持てそうだ。

生成AIの祭りの後、何が残るのか?

MITテクノロジーレビューは毎年、記者と編集者が、未来を形作る可能性のある「ブレークスルー・テクノロジー10」を選んでいる。現在AIの世界で最も話題となっている生成AIは、今年の選択の1つだ。

オープンAIのDALL-E(ダリー)のようなテキストから画像を生成するAIモデルが、世界に旋風を巻き起こした。その人気は、その開発者たちをも驚かせた。こうしたツールがクリエイティブ産業やAI分野全体に実際にどのような影響を残すのか。今後見守る必要があるが、これが始まりに過ぎないことは明らかだ。

いずれ、文書から画像を生成するときに何種類もの言語に対応したり、ロボットを制御したりというように、それぞれ異なるさまざまなことができるAIモデルが登場することになりそうだ。生成AIはいずれ、新しい建物から新薬まで、あらゆるものの設計に使われるようになるかもしれない。オープンAIの創業者であるサム・アルトマン最高経営責任者(CEO)は、本誌のウィル・ダグラス・ヘブン編集者に次のように語っている。「これが、レガシーだと思います。画像、映像、音声、いずれはあらゆるものが生成されるでしょう。あらゆるところに浸透していくと思います」。

AI関連のその他のニュース

マイクロソフトとオープンAIは、チャットGPTを使ってビング(Bing)検索を強化したいと考えだ。マイクロソフトは強力な言語モデルを使ってグーグル検索に対抗したいと考えており、早ければ3月に新機能を打ち出す可能性がある。マイクロソフトはまた、同社のワード(Word)やアウトルック(Outlook)にもチャットGPTを導入したいと考えている。だが、検索結果の精度を保証するには多くの作業が必要だ。さもなければユーザーが離れてしまう恐れがある。(ジ・インフォメーション

アップルがAI音声によるオーディオブックのカタログを公開。アップルが完全にAIのナレーションによるオーディオブックをひっそりと発表した。人間の声優を雇う数分の一のコストでオーディオブックを迅速に市場に出していくことができるようになる。アップルにとって賢明な動きだといえる一方で、AIに仕事を奪われることを懸念するアーティストたちの同盟が大きくなりつつあり、反発を招くことにもなりそうだ。(ガーディアン紙

AIの学位を取得しようとする72歳の連邦議会議員を紹介。テック企業はよく、議員は自分たちが規制しようとしている技術を理解していないと批判する。バージニア州選出の民主党議員であるドン・ベイヤーは、この状況を変えたいと考えている。ジョージ・メイソン大学で機械学習の修士号取得を目指すベイヤー議員は、そこで得た知識を使って規制の舵を取り、メンタルヘルスにおける倫理的なAIの活用を促進したいと考えだ。(ワシントン・ポスト紙

人気の記事ランキング
  1. The way whales communicate is closer to human language than we realized クジラの言語構造、想像以上に人間の言語に近かった
  2. Why EV charging needs more than Tesla EVシフト、充電部門閉鎖で明らかになった「テスラ頼み」の危うさ
  3. Three takeaways about the current state of batteries エネルギー革命の主役に躍り出た蓄電池、押さえておきたいデータ3つ
  4. Almost every Chinese keyboard app has a security flaw that reveals what users type 人気の中国語キーボード・アプリ、ほぼすべてに脆弱性が存在
メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
人気の記事ランキング
  1. The way whales communicate is closer to human language than we realized クジラの言語構造、想像以上に人間の言語に近かった
  2. Why EV charging needs more than Tesla EVシフト、充電部門閉鎖で明らかになった「テスラ頼み」の危うさ
  3. Three takeaways about the current state of batteries エネルギー革命の主役に躍り出た蓄電池、押さえておきたいデータ3つ
  4. Almost every Chinese keyboard app has a security flaw that reveals what users type 人気の中国語キーボード・アプリ、ほぼすべてに脆弱性が存在
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る