言語生成アルゴリズムには、人種差別や性差別を助長するような視点が埋め込まれていることが知られている。こうしたアルゴリズムは、ヘイトスピーチやデマを含んでいる可能性があるレディット(Reddit)やツイッターなどのインターネット上の言葉で訓練され、ネット上のダークサイドに存在する有害な考え方は、学習の一環として鍛えられていく。
新たな研究によって、画像生成アルゴリズムにおいても同様の現象が見られることが明らかとなった。首から上を写した男性の写真を画像生成アルゴリズムに与えると、43%の確率でスーツ姿の画像が自動生成される。同様に、女性の写真を同じアルゴリズムに与えると、アレクサンドリア・オカシオ・コルテス米下院議員といった著名人でさえも、53%の確率で胸元の開いた服やビキニ姿が自動生成されてしまうのだ。画像生成だけでなく、映像ベースの人材評価アルゴリズムや顔認識、監視システムなど、すべてのコンピュータービジョンの用途に影響を与える問題だ。
カーネギーメロン大学の博士課程に在籍するライアン・スティードとジョージ・ワシントン大学のアイリーン・カリスカン助教授は、オープンAIのiGPT(単語ではなく画像で訓練したGPT-2のバージョン)とグーグルのSimCLRという2種類のアルゴリズムについて調査した。それぞれのアルゴリズムの画像学習法は異なるが、完全な「教師なし学習」という重要な共通点がある。つまり、画像をラベル付けする際に人間の力を必要としない。
教師なし学習は、2020年時点における比較的新しいイノベーションである。以前のコンピュータービジョンのアルゴリズムでは、人間がラベル付けした画像を与える教師あり学習が主に採用されていた。猫の写真なら「猫」のタグ、赤ちゃんの写真なら「赤ちゃん」のタグといった具合だ。だが2019年、研究者のケイト・クロフォードとアーティストのトレバー・パグレンは、イメージネット(ImageNet:コンピュータービジョンモデルを訓練するための最も基礎的な画像データセット)に含まれる、人間が付けたラベルについてのある事実を発見した。女性に対する「ふしだらな女」といった言葉や、少数民族に対する人種差別的な中傷など、不快な言葉が含まれている場合があるという事実だった。
最近発表されたスティードとカリスカン …
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- How to help friends and family dig out of a conspiracy theory black hole 家族が陰謀論にハマったら: 専門家が語る、 5つの現実的アプローチ
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
