アレックス・ハンナ——AIの未来のためにグーグルを去った研究者
「白人問題」でグーグルを退職したアレックス・ハンナ博士は、ティムニット・ゲブル博士の研究所の一員として、白人至上主義を解消するために活動している。 by Anmol Irfan2022.10.24
「疲れたので辞めます」。アレックス・ハンナ博士は、グーグルのAI倫理チームの一員として働いた最後の日である2022年2月2日に投稿した。ハンナ博士は、グーグルやテック業界全体が、多様性を促進したり、同社の製品が社会から疎外された人々に与えた被害を軽減したりすることにほとんど取り組んでいないと感じていた。「一言で言えば、テクノロジーには白人問題が存在します」と、彼女はミディアム(Medium)への投稿で述べている。 「グーグルは単なるテック企業ではありません。グーグルは白人のテック企業なのです」。
グーグルを辞めた後、ハンナ博士は休まなかった。2月3日には、分散型AI研究所(Distributed AI Research Institute:DAIR)の2人目の職員として入所したのだ。
この動きは、ハンナ博士のキャリアにおける劇的な時期の締めくくりであった。2020年末、ハンナ博士の上司であったティムニット・ゲブル博士は、(グーグルのものを含む)大規模言語モデルの倫理性に疑問を呈する論文を書き、AI倫理チームの共同リーダーとしての職を解雇された。その数カ月後には、次の上司であるメグ・ミッチェル博士も退職を余儀なくされた。
DAIRは、2021年末にゲブル博士によって設立された。さまざまな慈善団体から資金提供を受け、コミュニティに焦点を当てたボトムアップ型の研究アプローチによって、既存の人工知能 …
- 人気の記事ランキング
-
- Future Frontiers: Professor Ota’s Vision and Message to Gen Under 35 5Gから6Gへ、通信の世界的研究者・太田 香教授「U35」へのメッセージ
- Inside Amsterdam’s high-stakes experiment to create fair welfare AI 生活保護の嘘を見抜け—— アムステルダムの「完璧」な AI導入が失敗した理由
- Inside the US power struggle over coal 経済合理性を失う石炭火力発電、トランプ政権は延命に固執
- A major AI training data set contains millions of examples of personal data AI訓練データに個人情報、 身分証や履歴書など数百万件