KADOKAWA Technology Review
×
偏見なし、採用面接で「すぐ辞める人」を見抜くAIは公平か?
A screenshot of PredictiveHire.
人工知能(AI) Insider Online限定
An AI hiring startup promising bias-free results wants to predict job-hopping

偏見なし、採用面接で「すぐ辞める人」を見抜くAIは公平か?

AIを活用することで逆に「偏見のない採用」を実現できると謳う企業がある。だが、実際には労働者の権利を一方的に奪う可能性がある。 by Karen Hao2020.08.12

新型コロナウイルス感染症(COVID-19)のパンデミック発生以来、人材の雇用に人工知能(AI)を導入する企業が増えている。特に一般的なものは、顔スキャニング・アルゴリズムやゲーム、質問などで応募者を評価し、面接候補者を絞り込むシステムだ。

活動家や学者らは、このような選考ツールは差別を固定化する可能性があると警告する。一方で選考ツールを開発する企業は、アルゴリズムを活用した雇用は人間の持つ偏見(バイアス)の修正に有効だと主張している。アルゴリズムはテストを実施して改良できるが、人間の偏見は思考と同じように修正が難しいというわけだ。コーネル大学の研究チームは2019年12月に発表した論文で、アルゴリズムによる選考ツールを開発している企業を評価し、企業側の主張と実態について分析している。コーネル大学のチームによる評価では英語のWebサイトを持つ18社の企業の過半数が、人間による選考に代わり、より公平な雇用が実現できると売り込んでいる。それらの企業は、アルゴリズムを活用した雇用への懸念が高まっていることを理解しており、自社のツールの長所を売り込んで、より多くの顧客を集めようとしているようだ。

だが、アルゴリズムを活用した雇用で懸念されているのは差別だけではない。一部の学者は、企業が偏見の問題に焦点を当てることで、労働者の権利問題など他にも抱えている問題から目をそらそうとすることを懸念している。こうした企業の1つが発表した新たなプレプリント(査読前論文)は、重要な警告を発している。マイクロソフト・リサーチで主任研究員を務めるコーネル大学のソロン・バロカス助教授は、アルゴリズムの公平性と説明責任について研究している。バロカス助教授は、「人々の注目が偏見や差別に集まっていますが、他にも数多くの問題があるという事実を忘れてはいけません」と述べる。

問題となっている企業は、2013年10月にオーストラリアを拠点に設立されたプレディクティブハイア(PredictiveHire)だ。プレディクティブハイアは、応募者に対してさまざまな自由回答形式の質問を投げかけるチャットボットを提供している。応募者の回答を分析し、「意欲」「自発性」「回復力(レジリエンス)」といった、仕事に関わるパーソナリティを評価する。プレディクティブハイアのバーバラ・ハイマン最高経営責任者(CEO)によると、同社の顧客は小売、営業、コールセンター、保健医療など、多人数の求人をかけている分野の雇用主だという。コーネル大学の研究によって明らかにされたが、プレディクティブハイアはより公平な雇用の実現を売り …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る