KADOKAWA Technology Review
×
6/15開催 「生成AI革命2」参加受付中【会員優待あり】
浸透する顔認識テクノロジー
高まる「バイアス」批判に
応える3つの最新研究
Busà Photography/Getty
知性を宿す機械 Insider Online限定
Making face recognition less biased doesn’t make it less scary

浸透する顔認識テクノロジー
高まる「バイアス」批判に
応える3つの最新研究

顔認識テクノロジーが社会に急速に浸透している一方で、性別や人種によって認識精度が大きく異なるという同技術の持つ問題点が指摘されている。顔認識に関する偏りを是正するための研究が進んでいるが、公平かつ正確なシステムを作り出すには時間がかかりそうだ。 by Karen Hao2019.02.07

ここ数年間で、顔認識、顔検出、顔分析といったテクノロジーの利用が劇的に増加している。

もっとも有名な顔認識システムは、特定の個人を認識して写真に自動的にタグを付けてくれるフェイスブックの機能や、アップルのフェイスID(Face ID)だろう。顔検出システムは、顔が画像内に存在するかどうかを判断し、顔分析システムは性別や人種の特定を試みる。こうしたシステムは、雇用や小売から、セキュリティや監視に至るまでさまざまな目的で利用されている。

多くの人々は、これらのシステムは非常に正確で、公正であると信じている。空港のセキュリティ担当官は疲れていることもあるだろうし、警官が容疑者を見誤ることもあるだろうが、よく訓練された人工知能(AI)なら常に、どんな顔の画像でも正確に識別して分類できるはずだという理屈だ。

しかし実際には、これらのシステムは、一部の層の人々について、他の層の人々より精度が低くなるという研究結果が繰り返し示されている。昨年には、MIT(マサチューセッツ工科大学)メディアラボのジョイ・ブオーラムウィニ研究助手らによる萌芽的な研究「ジェンダー・シェーズ(Gender Shades)」によって、IBM、マイクロソフト、フェイス・プラス・プラス(Face++)の販売するジェンダー分類システムは、肌の色の黒い女性に対する認識精度の誤り率が、肌の色の白い男性より最大で34.4%も大きいことが明らかになった。同様に、アメリカ自由人権協会(ACLU)も、アマゾンの顔認識システムが、非白人に対して、白人の国会議員よりも認識を誤ることが多いことを発見している。

問題は、顔認識や顔分析のシステムが往々にして偏ったデータで訓練されていることだ。それらのシステムの訓練で使われている女性および肌の色の黒い人の画像のデータは、男性および肌の色の白い人の画像に比べてはるかに少ない。多くのシステムは公平にテストされているはずだが、実際にはそれらのテストでは、十分な多様性をもった顔データで性能がチェックされていないことをブオーラムウィニ研究助手は見い出した。訓練に用 …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
生成AI革命

自然な文章を生成するチャットGPT(ChatGPT)/GPT-4などの大規模言語モデル、テキストから画像を生成できるDALL·E 、Stable Diffusion、Midjourneyなどの拡散モデルの登場は、私たちの生活やビジネスを大きく変えようとしている。
人工知能(AI)の新時代を牽引する「生成AI(ジェネレーティブAI)」革命の最前線を追う。

記事一覧を見る
MITテクノロジーレビュー[日本版] Vol.10
MITテクノロジーレビュー[日本版] Vol.10世界を変えるU35イノベーター2022年版

人工知能(AI)/ロボット工学、インターネット、通信、コンピューター/電子機器、輸送、持続可能性、生物工学など幅広いテクノロジー領域で活躍する2022年の日本を代表する若手イノベーター14人、米国・中国・欧州などで活躍するグローバルのイノベーター35人を一挙紹介する。

詳細を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る