人気アプリでアジア系女性記者が直面したAIのバイアス問題
知性を宿す機械

How it feels to be sexually objectified by an AI 人気アプリでアジア系女性記者が直面したAIのバイアス問題

「ステーブル・ディフュージョン」や「チャットGPT」といった最新のAIモデルは、私たちを驚かせるような能力を発揮する。しかし、性別や人種によるバイアスを反映した思いがけない結果が返ってくることもある。 by Melissa Heikkilä2023.01.12

この記事は米国版ニュースレターを一部再編集したものです。

最近の私のソーシャル・メディアのフィードは、2つのホットな話題で占められている。オープンAI(OpenAI)の最新チャットボットである「チャットGPT(ChatGPT)」と、人工知能(AI)による大人気のアバターアプリ「レンザ(Lensa)」だ。新しいテクノロジーをいじくり回すのが好きな私は、さっそくレンザを試してみた。

私は、編集部の同僚たちと同じような結果が得られるものと思っていた。宇宙飛行士や勇敢な戦士、アルバムのジャケット写真のようなものなど、写実的で本人を喜ばせるようなアバターだ。

だが私には、大量のヌード画像が生成された。私が作成した100体のアバターのうち、16体はトップレス、その他にも14体が極めて露出度の高い服を着てあからさまにセクシーなポーズをとっていた(詳しくはこちらの記事に書いている)。

レンザは、テキストの指示を基に画像を生成するオープンソースのAIモデル「ステーブル・ディフュージョン(Stable Diffusion)」を使ってアバターを生成している。ステーブル・ディフュージョンは、インターネット上から搔き集めた画像で作成された巨大なオープンソースのデータセット「LAION-5B (ライオン-5B)」を使って構築されている。

インターネット上には衣服をほとんど、もしくはまったく着ていない女性の画像や、性差別主義者や人種差別主義者の固定観念を反映した写真があふれている。そのため、LAION-5Bも偏っているのだ。

アジア人女性である私が、これまでにも散々目にしてきたことだった。過去に付き合ったある男性がアジア人女性としかデートしないことに気づいたとき、不快な気分になったことがある。アジア人女性はすばらしい専業主婦になれると発言した男性たちと喧嘩したこともあった。私の性器についての下品なコメントを耳にしたりもした。部屋にいた別のアジア人と間違えられたこともあった。

AIに性的対象とみなされるのは、私が期待したことではないが、驚くことではなかった。率直に言って、それは非常に残念な結果だった。同僚や友人たちは、巧みな肖像画にしてもらうという特権を得た。彼らのアバターは彼ら自身であることが認識できるものだった。しかし、私はそうではなかった。私が受け取ったのは、明らかにアニメのキャラクターやビデオゲームをモデルにした一般的なアジア人女性のイメージだった。

おもしろいことに、性別を男性に設定してアプリを利用すると、真実に近い自分の画像を得ることができた。おそらく、画像に対して異なる一連のプロンプトを適用していたのだろう。 その差は歴然としている。男性のフィルターを使って生成した画像の私は、服を着ていて、自身に満ちた様子で、そして最も重要なのは、その写真が自分であると認識できることだ。

「女性は性的コンテンツに関連付けられますが、一方で男性は、医学、科学、ビジネスなど、あらゆる重要な領域における専門的な職業関連のコンテンツに関連付けられるのです」。ワシントン大学でAIシステムにおけるバイアスや表現描写について研究しているアイリン・カリスカン助教授は話す。

この種のステレオタイプは、AIスタートアップ企業であるハギング・フェイス(Hugging Face)のサーシャ・ルッチョーニ研究員が開発した新たなツールで簡単に見つけられる。誰でもステーブル・ディフュージョンにあるさまざまなバイアスを調査できる。

このツールは、AIモデルが白人男性を医師、建築家、デザイナーとして描く一方で、女性を美容師やメイドとして描くという実態を示している。

しかし、責められるべきは訓練データだけではない。こうしたモデルやアプリの開発企業はデータをどのように活用するのかという方法を能動的に選択している、と画像生成アルゴリズムにおけるバイアスを研究しているライアン・スティード(カーネギーメロン大学の博士課程生)は話す。

「訓練データを選び、モデルの構築を決定し、こうしたバイアスを軽減させるために何らかの措置を講じるか否かを決める誰かが存在するのです」。

レンザを開発したプリズマ・ラブズ(Prisma Labs)は、ジェンダーに関係なく「時として性的なものになる」と言っている。しかし私にとって、それは十分な見解とは言えない。誰かが、特定の配色やシナリオを当てはめ、特定の体のパーツを強調させることを意識的に決定したのだ。

そしてそのような決定は、短期的には、女性や子どもたちの無許可のヌード画像を作成するディープフェイク生成システムに簡単にアクセスできるようになるなど、明らかな害をもたらす可能性がある。

しかしワシントン大学のカリスカン助教授は、さらに大きな長期的問題が待ち受けていると考える。バイアスが埋め込まれたAI生成画像がインターネット上に氾濫すると、それらがやがて将来のAIモデルの訓練データとなっていくのだ。「私たちは、こうしたバイアスを増幅させて、特定の人々を疎外し続けるような未来を作っていくつもりなののでしょうか」。

これは実に恐ろしい見解であり、私個人としては、この問題がさらに大きく根深いものになる前に、こうしたことについて十分な時間をかけて検討することを望んでいる。

テロ対策名目で進む不透明な監視テクノロジーの導入

テロ対策支援を目的として各都市に支給されている助成金を、米国の地方警察が「監視テクノロジーの大量購入」に使っていることが、人種・経済に関するアクションセンター(ACRE)、リトルシス(LittleSis)、メディアジャスティス(MediaJustice)、移民防衛プロジェクト(Immigrant Defense Projec)などによる報告書で明らかになった。

たとえばロサンゼルス警察は、テロ対策のための資金を使い、127万ドル相当の自動ナンバープレート読取り装置や、2400万ドル以上の無線機器、パランティア(Palantir )のデータ統合プラットフォーム(予測捜査に使われることが多い)、ソーシャルメディア監視ソフトウェアなどを購入していた。

さまざまな理由により、問題のある多くのテクノロジーがほとんど監視されないまま、取り締まりなどの高いリスクを抱える分野に流れている。例えば、顔認識テクノロジー企業であるクリアビューAI(Clearview AI)は、警察に自社テクノロジーの「無料トライアル」を提供しており、購買契約や予算承認なしで使用できるようにしている。テロ対策のための連邦政府の助成金には、透明性や監視がそれほど要求されない。警察がどのようなテクノロジーを入手しているかを市民が知らされていない状態は普通になりつつあるが、今回の報告はその新たな一例だ。テイト・ライアン・モズリー記者によるさらなる記事はこちら

AI関連のその他のニュース

チャットGPT(ChatGPT)、ギャラクティカ(Galactica)……その進歩の落とし穴。AI研究者であるアベバ・ビルハネとデボラ・ラジは、メタのギャラクティカ(Galactica)で見られたような「モデルの公開に対する不誠実なアプローチ」や、批判的なフィードバックに対する極度な防御的反応は、現在のAIにおける「深刻な懸念」になっていると書いている。そのモデルが「それによって被害を受ける可能性が高い人々の期待に応えられない」場合、「その製品はそうした人々にサービスを提供する準備ができておらず、世間一般にリリースするに値しない」と2人は主張している。(ワイアード

新たなチャットボットが世界を変える可能性がある。しかし信用できるだろうか? 人々はチャットGPTがいかに理路整然とした答えを返すかに圧倒された。問題は、チャットGPTが吐き出すもののかなりの量がたわごとであることだ。大規模言語モデルは自信満々の嘘つき以上のものではなく、それを念頭に置いて臨むのが賢明だろう。(ニューヨーク・タイムズ

言葉に詰まった時、AIに話をさせる人もいる。技術的な欠陥はあっても、学習障害を抱えた人など、大規模言語モデルが自分の言いたいことを表現するのに役立つこともある。(ワシントンポスト

AI規制に関する欧州連合(EU)諸国の姿勢が、議員や活動家らの批判を集めている。EUのAI規制法案( AI  Act)が、成立へと徐々に近づいている。EU諸国は、規制のあり方についての立場を承認したが、公共の場での企業による顔認識の使用など、多くの重要な問題に対処しておらず、多くの保護措置が骨抜きにされているとの批判がある。(ロイター

生成AIのスタートアップ企業に投資家が熱視線。生成AIに注目しているのはあただけではない。ベンチャーキャピタルも、ステーブル・ディフュージョンを開発したスタビリティAI(Stability.AI)などの生成AIスタートアップがテクノロジー業界で今最もホットな存在だと考えている。そしてそこに大金を投じている。(フィナンシャル・タイムズ