アレックス・ハンナ——AIの未来のためにグーグルを去った研究者
「白人問題」でグーグルを退職したアレックス・ハンナ博士は、ティムニット・ゲブル博士の研究所の一員として、白人至上主義を解消するために活動している。 by Anmol Irfan2022.10.24
「疲れたので辞めます」。アレックス・ハンナ博士は、グーグルのAI倫理チームの一員として働いた最後の日である2022年2月2日に投稿した。ハンナ博士は、グーグルやテック業界全体が、多様性を促進したり、同社の製品が社会から疎外された人々に与えた被害を軽減したりすることにほとんど取り組んでいないと感じていた。「一言で言えば、テクノロジーには白人問題が存在します」と、彼女はミディアム(Medium)への投稿で述べている。 「グーグルは単なるテック企業ではありません。グーグルは白人のテック企業なのです」。
グーグルを辞めた後、ハンナ博士は休まなかった。2月3日には、分散型AI研究所(Distributed AI Research Institute:DAIR)の2人目の職員として入所したのだ。
この動きは、ハンナ博士のキャリアにおける劇的な時期の締めくくりであった。2020年末、ハンナ博士の上司であったティムニット・ゲブル博士は、(グーグルのものを含む)大規模言語モデルの倫理性に疑問を呈する論文を書き、AI倫理チームの共同リーダーとしての職を解雇された。その数カ月後には、次の上司であるメグ・ミッチェル博士も退職を余儀なくされた。
DAIRは、2021年末にゲブル博士によって設立された。さまざまな慈善団体から資金提供を受け、コミュニティに焦点を当てたボトムアップ型の研究アプローチによって、既存の人工知能 …
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
