テック企業で働く「AI倫理」担当者が生き残る方法
「責任あるAI」を求める動きが高まる一方で、企業はいまだに十分な投資をしていない。企業のAI倫理担当者は、ほとんど助けを得られないまま、難しい仕事を押しつけられている。 by Melissa Heikkilä2022.12.30
この記事は米国版ニュースレターを一部再編集したものです。
企業の責任を問う新しい法律が施行されたこともあり、企業にとってAIシステムを安全に機能させることは、かつてないほど重要になっている。 これには「責任あるAI」チームの設置が何よりも優先となるはずだが、そこへの投資はいまだ立ち遅れている。
結果として、現場で働く人々が非常に苦しむことになる。企業は適切な支援も与えないまま、大きな体系的問題を修復するようAI倫理分野で働く個人に強いプレッシャーをかけており、一方ではそうした個人がネット上でほぼ絶え間のない激しい批判を浴びている。
この問題にはまた、個人的な感情が害されるという側面もある。AIシステムは、人種差別や性差別といった社会の負の側面を映し出してそれを激化させることが多い。問題視されるテクノロジーは、黒人をゴリラと分類してしまう顔認識システムから、本人の同意なしに女性のポルノビデオを作成するようなディープフェイク・ソフトウェアまで、多岐にわたる。AI倫理の職務に就くのは女性、有色人種、その他社会の主流から取り残された人々であることが多いが、そうした人々にとってこうした問題への対処は特に負担となる可能性がある。
本誌では、AI倫理に携わる多くの人々にインタビューし、職務上の困難について話を聞いている。1つ明らかなのは、当事者が燃え尽き症候群に陥っていること、そしてそれがこの業界全体に悪影響を及ぼしていることだ。 詳しくはをこちらの記事をお読みいただきたい。
話を聞いたうちの2人は、応用AI倫理のパイオニアであるマーガレット・ミッチェルとラマン・チョードリーである。現在はそれぞれ、ハギング・フェイス(Hugging Face)とツイッターに勤務している(チョードリーはイーロン・マスクによるツイッター買収後に解雇された)。
2人の話をもとに、この分野で生き残るための重要な秘訣について紹介しよう。
1. 自分自身の擁護者になること。AIがもたらすリスクについて多くの人々が注目するようになっているにもかかわらず、いまだに倫理担当者は同僚に認めてもらうための戦いを強いられている。機械学習の業界文化は、人々のニーズを認識することがあまり得意ではない。「会議の中で、あなたのやっていることに対してどれだけ自信満々で声高な反対意見を述べられようとも、それが正しいとは限りません」とミッチェルは言う。「自分の仕事の擁護者になる覚悟が必要です」。
2. ゆっくり着実にレースを勝ち抜く。記事の中でチョードリーは、新たなAIテクノロジーに潜在する有害な副作用について、ソーシャルメディア上の議論に逐一向き合っているといかに疲労困憊するか語っている。あらゆる議論に参加しようとしなくても大丈夫だと彼女はアドバイスする。「この仕事に長く携わっていると、同じ議論が何度も何度も巡っているのを目にします」と言う。「大仰な喧伝で繰り返されるそれらの議論を2〜3回逃したとしても、自分の仕事に集中して確かなものを作り上げたほうがいいのです」。
3. 殉教者にはなるな(そんな価値はない) 。AI倫理担当者は多くの点で、活動家と共通している。その仕事の原動力は、情熱、理想の追求、そして世界をより良い場所にしたいとの思いだ。だが自分の価値観とは相容れない企業で働くことは、決して立派なことではない。「どんなに有名な企業であっても、会社全体、あるいは少なくともその大半があなたと共にそれをやろうとしていると感じられない職場なら、そこにいる価値はありません」とチョードリーは言う。「あなたの仕事は、大金をもらって問題を指摘することではありません。自社製品をよりよくするための手助けをすることが仕事です。そしてその製品に信頼がおけないのであれば、そこで働くべきではありません」。
◆
機械学習によって新たな金属の探索が大幅に加速
新たな研究によると、機械学習は、有用な特性を持つ新しい金属の開発に役立つ可能性がある。例えば、極端な温度や錆に強いなどの特性を持つ金属だ。低温に強い金属は宇宙船の改良につながり、錆びにくい金属は船や潜水艦に使えるなど、さまざまな分野での活用が期待できる。
これがなぜ重要なのか? この研究成果は、いまだ研究室での実験に大きく依存する材料科学分野で、機械学習の活用を推し進める可能性がある。またこの手法は、化学や物理学といった他分野における発見にも応用できる。 タミー・シュが執筆したこちらの記事を参照してほしい。
AI関連のその他のニュース
シャッターストック(Shutterstock)がAI生成画像の販売を開始する。ストック・フォト企業であるシャッターストックが、DALL-E(ダリー)を生み出したオープンAI(OpenAI)と提携する。シャッターストックはまた、作品がAIモデルの訓練に使われたアーティストに対して、補償金を支払うための基金を立ち上げている。(ザ・ヴァージ)
英国情報コミッショナーが感情認識をナンセンスと斬り捨てる。英国情報コミッショナーが、企業は人の感情を検出できるとする「似非科学的な」AI技術を回避すべきであり、さもなければ罰金のリスクを負うことになると述べた。規制当局としては初。(ガーディアン)
アレックス・ハンナがAIの未来を救うためにグーグルを去った。MITテクノロジーレビューは先日、かつてグーグルの倫理AIチームで働いていたアレックス・ハンナの記事を掲載した。ハンナは、コミュニティに根差したボトムアップ式の研究アプローチによってAIへの既存の知識に挑戦しようとする調査研究所、「分散型AI研究所(Distributed AI Research Institute:DAIR)」に加わった。DAIRは、ハンナのかつての上司であるティムニット・ゲブルが立ち上げた研究所だ。ゲブルは、2020年末にグーグルから解雇されている。(MITテクノロジーレビュー)
- 人気の記事ランキング
-
- The coolest thing about smart glasses is not the AR. It’s the AI. ようやく物になったスマートグラス、真価はARではなくAIにある
- Sorry, AI won’t “fix” climate change サム・アルトマンさん、AIで気候問題は「解決」できません
- Two Nobel Prize winners want to cancel their own CRISPR patents in Europe クリスパー特許紛争で新展開 ノーベル賞受賞者が 欧州特許の一部取り下げへ
- Space travel is dangerous. Could genetic testing and gene editing make it safer? 遺伝子編集が出発の条件に? 知られざる宇宙旅行のリスク
- メリッサ・ヘイッキラ [Melissa Heikkilä]米国版 AI担当上級記者
- MITテクノロジーレビューの上級記者として、人工知能とそれがどのように社会を変えていくかを取材している。MITテクノロジーレビュー入社以前は『ポリティコ(POLITICO)』でAI政策や政治関連の記事を執筆していた。英エコノミスト誌での勤務、ニュースキャスターとしての経験も持つ。2020年にフォーブス誌の「30 Under 30」(欧州メディア部門)に選出された。