企業に都合よく利用される「AI監査」、正しく広めるには?
知性を宿す機械

Do AI systems need to come with safety warnings? 企業に都合よく利用される「AI監査」、正しく広めるには?

AIシステムが、バイアスなく正しく動いていることを確認する「AI監査」を実施する企業が増えつつある。しかし現状では、「正しい」監査のやり方を決める動きもなく、監査結果の公表についても決まりはない。今後、AI監査はどのように発展させていくべきだろうか。 by Melissa Heikkilä2022.12.20

この記事は米国版ニュースレターを一部再編集したものです。

人工知能(AI)システムの巨大な力と、私たちの生活、家庭、社会に関する重大な意思決定を支援する役割がますます増えていることを考えると、AIに対する検査は驚くほど少ない。

それが変わり始めている。AI監査分野の発展のおかげだ。うまく機能すれば、AI監査によってシステムがどの程度適切に機能しているかを確認し、起こりうるバイアスや弊害を軽減する方法を見つけ出すことができる。

AI研究者のジョイ・ブォロムウィニとティムニット・ゲブルが2018年に実施した商用顔認識システムの監査で、システムが肌の色が濃い人を白人と同じようには認識しないことが判明したのは有名な話だ。黒人女性の場合、エラー率は最大で34%に達した。AI研究者のアベバ・ベルハネがネイチャー(Nature)誌で発表した新しい論文の中で指摘しているように、この商用顔認識システムの監査は「顔分析アルゴリズムのバイアス、差別、抑圧的な性質を明らかにした一連の重要な研究を後押しした」。さまざまなAIシステムを対象にこの種の監査を実行することで、問題を根絶し、AIシステムが私たちの生活にどのような影響を与えているかについて、より幅広い会話ができるようになることが期待されている。

規制当局が追い付いてきており、それが監査に対する需要を高める一因となっている。 ニューヨーク市の新しい法令では、2024年1月からAIを利用した採用ツールすべてに対してバイアスがないことを証明する監査を義務付ける。欧州連合(EU)は、2024年から大手テック企業にAIシステムの監査を毎年実施することを義務付ける。今後制定されるAI法では、「高リスク」のAIシステムの監査も義務付けられる予定だ。

意欲的な取り組みだが、大きな障害もある。AI監査がどのようなものであるべきかについての共通認識は存在せず、AI監査を実行するための適切なスキルを持つ人材も不足している。ブルッキングス研究所でAIガバナンスを研究するアレックス・イングラーは、現在実施されている数少ない監査は、ほとんどがその場しのぎのもので、監査の質にもかなり差があると話してくれた。イングラーは、AI採用企業ハイアービュー(HireVue)を例として挙げた。同社はプレスリリースで、外部監査により同社のアルゴリズムにはバイアスがないことが分かったと明かした。しかし、これは無意味な主張であることが判明した。監査は、同社のモデルを実際に調査したわけではなかったし、秘密保持契約の対象であったため、監査結果を確認する方法がなかった。基本的に、単なる宣伝行為に過ぎなかったのだ。

AIコミュニティが試みている監査員不足への対応方法の1つに、懸賞金付きのバイアス発見コンテストがある。これは、サイバーセキュリティの脆弱性報奨金制度と同じような効果がある。つまり、AIモデルのアルゴリズムのバイアスを特定し、軽減するためのツールを開発するよう人々に呼びかけているのだ。そのようなコンテストの1つが先日始まったばかりだ。ツイッターでAI倫理チームを率いるラマン・チョウドリーを含むボランティア・グループが企画したコンテストだ。企画チームは、このコンテストを皮切りに多くのコンテストが続いてくれることを期待している。

監査に必要なスキルを身に付けるインセンティブを人々に与え、どの方法が最も効果的かを示すことで、監査がどのようなものであるべきかを示す基準を作り始めるのは巧妙なアイデアだ。詳しくは、こちらの記事を読んでほしい。

こうしたAI監査の増加は、「AIシステムがあなたの健康と安全を害するおそれがある」というタバコのパッケージに表示されているような警告文をいつの日か目にする日が来るかもしれないことを示唆している。化学や食品などの他のセクターでは、製品が安全に使用できることを確認するために定期的に監査を実施している。AI分野でもこのような監査が当たり前になる可能性はあるのだろうか。

6月に発表された論文で、ブォロムウィニと共著者は、AIシステムを所有して運用する者に対して、定期的な監査の実施を義務付けるべきだと主張している。企業はAI監査の結果を公表する法的義務を負うべきであり、アルゴリズムによる意志決定の対象となった人々には、その旨を通知すべきだという。

同論文では、監査をより効果的にするもう1つの方法は、AIが現実世界でいつ害を及ぼすかを追跡することだと記されている。ボランティアのAI研究者や起業家によって作られたAI脆弱性データベース(AI Vulnerability Database)AI事故データベース(AI Incidents Database)など、AIによる被害を文書化する取り組みがいくつかある。AI脆弱性データベースの創設者であり、前述のバイアス発見コンテストの主催者の1人でもあるソフトウェア企業スプランク(Splunk)のスボ・マジュムダは、不具合を追跡することで、開発者が使用しているモデルに関連する落とし穴や思いもよらない不具合の事例について理解を深めることができると述べている。

監査が最終的にどのような形で導入されるにせよ、少数民族や疎外されたグループなど、アルゴリズムの弊害に最も影響を受ける人々が、そのプロセスにおいて重要な役割を果たすべきだとブォロムウィニと共著者は書いている。私もこの意見に賛成だ。しかし、一般の人々にAI監査という漠然としたものに興味を持ってもらうのは難しいだろう。バイアス発見コンテストのようなハードルが低く楽しいコンテストが、解決策の一部となるのかもしれない。

亡くなった親族と「会話」できるテクノロジーが登場、準備は整っているか?

亡くなった人に「話しかける」ためのテクノロジーは、何十年も前からサイエンス・フィクションに欠かせない存在だった。何世紀にもわたって、ペテン師や霊能者によって売り込まれてきたアイデアだ。しかし今、それは現実のものとなりつつあり、AIと音声テクノロジーの進歩のおかげで、ますます身近なものとなっている。

MITテクノロジーレビューのニュース編集者であるシャーロット・ジーは、この種のテクノロジーが、死を悲しむ私たちの方法と、失った人を思い出す方法をいかに変えるかについて、思慮に富んだ心に残る記事を書いている。しかし、誰かのバーチャル版の作成には、特にその人が同意を与えることができなかった場合、さまざまな倫理的問題が起こる可能性があるとジーは説明する。詳しくはこちら(リンク先は翻訳中)で読んでほしい。

AI関連のその他のニュース

AIを利用したコード生成ツール「ギットハブ・コパイロット(GitHub Copilot)」に対する訴訟が進行中。ギットハブ・コパイロットを利用すると、ユーザーはAIを使ってコードを自動生成できる。批評家は、これが著作権の問題につながり、ライセンス情報が失われる可能性があると警告している。(ギットハブ・コパイロット・インベスティゲーション

フランスがクリアビューAI(Clearview AI)に罰金処分。フランスのデータ保護機関は、顔認識技術を開発しているクリアビューAIがEUの一般データ保護規則(GDPR)に違反したとして、2000万ユーロ(約1970万ドル)の罰金を科した。(テッククランチ

ある企業のアルゴリズムが米国で家賃を押し上げている。テキサス州を拠点とするリアルペイジ(RealPage)が提供するソフトウェア「イールドスター(YieldStar)」は、不動産所有者が可能な限り最高の賃料を得られるようにすることを目的としている。まさに意図したとおりに機能しており、賃借人に不利益を与えているようだ。(プロパブリカ

メタ(Meta)が無文字言語である福建語の音声翻訳システムを開発。ほとんどのAI翻訳システムは文字言語に焦点を当てている。メタが新しく開発したオープンソースの音声翻訳システムを使うと、主に海外移住した中国人の間で口頭で使用されている言語である福建語の話者が、英語の話者と会話することができる。(メタ