コンピューティング

Are Face Recognition Systems Accurate? Depends on Your Race. FBIの人種差別的な
顔認識システム

顔認識システムは人種によって精度が異なることが判明。 by Mike Orcutt2016.07.06

Illustration by Sophia Foster-Dimino

イラスト: ソフィア・フォスター=ディミノ

FBIや警察が使用中の顔認識システムは、今回の取材で判明した限り、製造されたときから人種偏見的だ。人為的ではないが、人間が設計したシステムの仕様と、 システムを訓練するのに使われたデータに原因がある。もちろん問題は解決するべきだ。しかも司法当局は犯罪捜査の補助ツールとして、こうしたシステムへの依存を深めており、いずれは取り返しのつかない事態が起きかねない。

ただし、司法当局は顔認識システムの詳細な使途を明かしていない。米国会計検査院(GAO:Government Accountability Office)が6月に発行した報告書では、FBIは顔認識システムの精度を厳密には確かめておらず、顔認識システムが利用する全米の顔情報をマッチングできる巨大ネットワークの精度も検証していない。

最新鋭の顔認識システムは約95%の精度で顔写真データベースから一致する人物を探し出す。だが、照合されるのは、おおむね協力的な態度の被写体に姿勢などを指示して撮影された顔写真だ。したがって、照明が不十分だったり、普段と違う姿勢や表情を撮影するなど、理想的とは言いがたい状況で撮影された画像では、無関係の顔写真を一致とみなす恐れがある。

アルゴリズムにも偏りがある。ミシガン州立大学でバイオメトリクス研究グループの責任者を務めるアニル・ジェイン特任教授は、原因はアルゴリズムの訓練方式だという。顔認識ソフトを正しく機能させるためには、最初に訓練データで顔を認識させて学習させる。訓練データとは、顔の違いを見分ける情報を機械が学習すための画像セットのことだ。ジェイン特任教授によれば、訓練データの性別や年齢層、人種のバリエーションが不足すると、顔認識システムの性能に影響を与えるという。

2012年、ジェイン特任教授のチームは、フロリダ州ピネラス郡保安官事務所の顔写真データを使って、既存のいくつかの顔認識システムの性能を検証した。中には司法当局に納入されるシステムもあったが、アルゴリズムの精度が一貫して低かったのは女性、アフリカ系アメリカ人と若者だ。ジェイン特任教授は、検証したシステムの訓練データには、この3グループが足りていなかったと見ている。

「使用する訓練セットが特定の人種に強く偏っている場合、アルゴリズムはその人種に対してより優れた認識結果を出します」というのは、テキサス大学ダラス校の顔認識研究室のアリス・オトゥール室長だ。オトゥール室長のチームは、欧米諸国で開発された顔認識アルゴリズムは、東アジア人の顔認識よりも白人の顔認識に優れており、同じく東アジアで開発されたアルゴリズムは、白人より東アジア人の顔で優れた性能を発揮すると2011年に発見した

こうした研究から数年を経て、商用アルゴリズムの精度はさまざまな分野で大幅に改良された。ジェイン特任教授は、異なる性別と人種間の性能格差は縮小されたかもしれないが、検査の情報がほとんど入手できないので、把握するのが難しいという。顔認識に関するさまざまな最新手法(グーグルやフェイスブックが開発した深層学習システムを含む)を活用しても、訓練データに偏りがあれば同様に間違うと考えられる。

国立標準技術研究所の電子技術者ジョナソン・フィリップスさんは、商用アルゴリズムの性能を検査している。フィリップさんによれば、顔照合システムにおける人種偏見を測定するテストは設計可能だという。実際、プライバシーの専門家は、そうしたテストを必要条件にするよう要請している

MIT Technology Reviewは、FBIと顔認識ソフトウェアを当局に納入しているモーフォトラストに、アルゴリズムに人種、性別、年齢による性能テストを実施するか電子メールで質問状を送ったが回答はなかった。

顔認識システムを使う多くの州司法当局と開発業者間の取り決めも明確ではない。しかし、ミシガン州警察のデジタル解析と身元確認を担当するピート・ランゲンフェルト課長は、自身の部署ではあるグループに偏った精度になっているかの検査はしないと答えた。また、ランゲンフェルト課長は、テクノロジーの提供元がどのような検査をしたか知らないという。ただし、アルゴリズムの偏りは機密情報であり、開発元は公開を義務付けられていないと補足した。

人気の記事ランキング
  1. Machines Can Now Recognize Something After Seeing It Once グーグル・ディープマインド、大量データ不要の深層学習システムを開発
  2. Wikileaks E-Mails Are an Election Influence to Really Worry About クリントン不支持の世論形成は、ロシアによる選挙干渉
  3. Neural Network Learns to Identify Criminals by Their Faces ニューラル・ネットワーク、「犯罪者顔」で犯罪者を判定
  4. Can social media control public opinion? ソーシャルメディアで世論は操作できるか?
  5. How the Bot-y Politic Influenced This Election 大統領選ツイートは約20%がボット、約75%はトランプ支持
この記事をシェアしてください!
この記事が気に入ったら
いいね!しよう
マイク オルカット [Mike Orcutt]米国版 調査担当編集者
MIT Technology Reviewの調査担当編集者。物事をすごく深刻に受け取ります。オタク気質を注ぎ込んで、大量に浴びせかけられる情報からなんとか選び抜いた真実の断片をつなぎ合わせ、より大きな構想にまとめ上げようとしています。そんな毎日。特に、人類が直面するエネルギー関連の問題やインターネットの未来について考えることが多いです。
コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

0 コメント
    「ビッグデータ」の記事
    人気の記事ランキング
    1. Machines Can Now Recognize Something After Seeing It Once グーグル・ディープマインド、大量データ不要の深層学習システムを開発
    2. Wikileaks E-Mails Are an Election Influence to Really Worry About クリントン不支持の世論形成は、ロシアによる選挙干渉
    3. Neural Network Learns to Identify Criminals by Their Faces ニューラル・ネットワーク、「犯罪者顔」で犯罪者を判定
    4. Can social media control public opinion? ソーシャルメディアで世論は操作できるか?
    5. How the Bot-y Politic Influenced This Election 大統領選ツイートは約20%がボット、約75%はトランプ支持