欧州議会が「AI法」を可決、今後予想される5つの規制
知性を宿す機械

Five big takeaways from Europe's AI Act 欧州議会が「AI法」を可決、今後予想される5つの規制

欧州議会において6月14日、「人工知能(AI)AI法」が圧倒的多数により可決された。施行までにはまだ時間を要するが、AIの利用には今後、さまざまな規制がかかることになりそうだ。 by Tate Ryan-Mosley2023.06.27

この記事は米国版ニュースレターを一部再編集したものです。

6月12日の週は欧州のテクノロジー政策において重要な週となった。欧州連合(EU)の立法者たちがグーグルに対して新たな反トラスト訴訟を起こした同じ日に、欧州議会が「AI法(AI Act)」の規則案を承認する投票を実施したのだ。

AI法は圧倒的多数により可決された。この法案は、AI規制における世界で最も重要な進展の1つと謳われてきた。欧州議会のロベルタ・メッツォーラ議長は、AI法について、「今後何年にもわたって世界標準となることは間違いない」と評している。

しかし、規制内容がすぐに明確になることを期待してはいけない。欧州の制度は少し入り組んでいるのだ。欧州議会のメンバーは次に、EUの理事会、およびEUの行政執行機関である欧州委員会と、法案の詳細を徹底的に議論しなければならず、その後、ようやく規則案が立法化されることになる。最終的な法案は、この3つの機関から提出された、内容が大きく異なる3つの草案の折衷案となる。実際に法律が施行されるまでには、2年程度かかるものと思われる。

6月14日の投票で達成されたことは、今後の最終交渉における欧州議会の立場の承認だった。オンライン・プラットフォームのための法的枠組みであるEUのデジタルサービス法と同様の構造を持つAI法は、あるAIの応用に伴う危険性の程度を立法者たちが予測し、その予測に基づいて制限を導入する「リスクベース・アプローチ」を採用する。また、企業はAIの使用に関する独自のリスク評価を提出しなければならない。

立法者がリスクを「容認できない」と考えれば、AIの応用が全面的に禁止されるケースも出てくるだろう。一方で、「高リスク」と見なされるテクノロジーには、新たな利用制限や、透明性に関する要件が設けられる。

以下は、今後予想されることの一部である。

・感情認識AIの使用禁止
欧州議会の草案は、人の感情を認識しようとするAIを、警察、学校、職場で使用することを禁止している。感情認識ソフトウェアのメーカーは、生徒が特定の題材を理解していない場合や、自動車の運転手が居眠りをしている可能性がある場合を、AIが判断できると主張している。顔の検出と分析をするためにAIを使用することについては、不正確さやバイアスが批判されてきた。しかし、他の2つの機関の草案では禁止されておらず、今後、政治的な争いが起こることが予想される。

・公共空間におけるリアルタイム生体認証と予測捜査の禁止
このことは、立法上の大きな争いになるだろう。なぜなら、この禁止措置を法制度の形で施行するかどうか、そして施行する場合はどのような方法で実行するかということについて、EUのさまざまな機関が検討し、まとめ上げなければならないからだ。警察機関は、リアルタイム生体認証技術は現代の警察活動に不可欠であるとして禁止に賛成していない。フランスなど、実際に顔認識の使用を増やすことを計画している国もいくつかある。

・社会信用スコアの禁止
公的機関による社会信用スコア、つまり人々の社会的行動に関するデータを使って一般化やプロフィール化をすることは、法的に禁止されるだろう。とはいえ、一般的に中国やその他の権威主義政府と関連している社会信用スコアに関する見通しは、見かけほど単純なものではない社会的行動データを使って人々を評価することは、住宅ローンの提供や保険料の設定の他、雇用や広告の分野でも一般的である。

・生成AIに対する新たな制限
この草案は、生成AI(ジェネレーティブAI)の規制方法を初めて提案するもので、オープンAI(OpenAI)の「GPT-4」のような大規模言語モデルの訓練用データセットにおいて、あらゆる著作物の使用を禁止している。オープンAIは、データ・プライバシーや著作権に関する懸念から、すでに欧州の立法者たちによる監視を受けている。この草案は、AIが生成したコンテンツに、その事実をラベル付けすることも求めている。とはいえ、欧州議会は今後、欧州委員会や各国にその政策を納得させる必要があり、テック業界からのロビー活動圧力に直面する可能性が高い。

・ソーシャルメディア上のレコメンド・アルゴリズムに対する新たな制限
新たな草案は、レコメンド・システムを「高リスク」カテゴリに割り当てており、他の法案よりも規制が強化される。つまり、もしこの法案が可決されれば、ソーシャルメディア・プラットフォーム上のレコメンド・システムは、その仕組みについてはるかに厳しい監視を受けることになり、テック企業はユーザー生成コンテンツの影響に対し、より大きな責任を負うことになるかもしれない。

欧州委員会のマルグレーテ・ヴェスタガー執行副委員長が説明するAIのリスクは、広範囲に及ぶ。同副委員長はこれまで、情報の信頼性の行く末、悪質な行為者による社会的操作に対する脆弱性、および監視社会に関する懸念を強調してきた。

「最終的に何も信じないという状況に陥ってしまったら、私たちの社会は完全に損なわれてしまいます」と、ヴェスタガー副委員長は6月14日に記者団に語った

テック政策関連の気になるニュース

ウォール・ストリート・ジャーナル紙が公開したビデオ映像によると、1人のロシア兵がウクライナの攻撃ドローンに対して降伏した。この降伏事件は、5月にウクライナ東部の都市バフムートで起こった。このドローンの操縦者は、映像を通して兵士が懇願する様子を見て、国際法に従いこの兵士を攻撃しないことに決めた。ドローンは戦争において重要な役割を担うようになっており、今回の降伏は、戦争行為の未来を考える上で興味深い事件である。

レディット(Reddit)の多くのユーザーが、同サイトのAPIの変更に抗議している。この変更によって、多数のコミュニティが使用しているサードパーティ製のアプリやツールの機能が、排除または縮小されることになる。抗議の一環として、それらのコミュニティが「非公開化」され、ページが一般からアクセスできなくなった。レディットはユーザー層に与えている権限でよく知られているが、ケイシー・ニュートンの鋭い評価によれば、同社は今、そのことを後悔しているかもしれない。

グーグルの大規模言語モデル「バード(Bard)」の訓練を担当していた契約社員たちが、自分たちの労働条件やAI自体の安全性の問題について懸念を提起したところ、解雇されたと述べている。契約社員たちによると、不合理な納期を強いられたため、正確度に関する懸念が生じたという。グーグルはその責任について、それらの契約社員を雇用している下請け機関のアペン(Appen)にあるとしている。歴史がすべてを物語るとすれば、生成AIの覇権争いには人的犠牲が伴うだろう。

テック政策関連の注目研究

6月13日、ヒューマン・ライツ・ウォッチ(Human Rights Watch)が、ヨルダンで福祉給付金を支給するために使用されているアルゴリズムに関する詳細な報告書を発表した。同機関は、世界銀行が資金を提供したこのアルゴリズムにいくつかの大きな問題点を見つけた。このシステムは、貧困に関する不正確で単純化しすぎた仮定をベースにしているという。報告書の著者は、透明性の欠如も指摘し、世界銀行が運営する同様のプロジェクトに対して警告を発した。私はこの調査結果について短い記事を書いた。

一方、政府サービスでアルゴリズムを活用する動きも活発化している。『Beyond Data: Reclaiming Human Rights at the Dawn of the Metaverse(データを超えて:メタバースの夜明けに基本的人権を取り戻す)』(未邦訳)の著者、エリザベス・レニエリスから、この報告書について私にメールが届いた。レニエリスは、この種のシステムが今後もたらすであろう影響を強調し、次のように述べている。「給付を受けるためのプロセスがデフォルトでデジタル化されるにつれ、最も必要としてる人たちに給付が届く可能性がさらに低くなり、情報格差が深まる一方です。これは、拡大する自動化が人々に直接的かつネガティブな影響を与える典型例であり、今、注目しなければならないAIのリスクの話です」。