KADOKAWA Technology Review
×
「AI倫理」は
企業に邪魔な存在なのか?
研究者たちの苦悩
Stephanie Arnett/MITTR | Unsplash
人工知能(AI) Insider Online限定
Responsible AI has a burnout problem

「AI倫理」は
企業に邪魔な存在なのか?
研究者たちの苦悩

AIの持つバイアスが明らかになるにつれて、倫理的なAIを求める声が高まっている。だが、企業で実際に倫理的AIの実現に向けて取り組んでいる人たちは、十分な支援を受けていないだけでなく、AI業界で疎んじられてさえいる。 by Melissa Heikkilä2022.11.09

マーガレット・ミッチェル博士は、グーグルで2年間にわたり働きづめだったが、休養が必要であることに気づいた。

「定期的に心の不調をきたすようになりました」と、同社の倫理的AIチームを立ち上げ、共同リーダーも務めていたミッチェル博士は言う。「それは今まで経験したことのないものでした」。

ミッチェル博士はセラピストと話して初めて、問題の本質を理解した。激務により燃え尽き症候群となっていたのだ。そして最終的に、ストレスが原因で療養休暇をとることとなった。

ミッチェル博士は現在、人工知能(AI)スタートアップ企業であるハギング・フェイス(Hugging Face)でAI研究者・倫理科学者チーフとして働いているが、こうした経験をしたのは彼女だけではない。モントリオールAI倫理研究所の設立者であり、ボストン・コンサルティング・グループで「責任あるAI」コンサルタントを務めるアビシェーク・グプタによると、責任あるAIチームにおいて燃え尽き症候群はますます頻繁に見られるようになってきているという。

規制当局や活動家からの圧力はますます強まっており、企業は、AI製品に潜む悪影響を軽減したうえで開発してきたことをリリースする前に検証するよう求められている。対応策として各社はチームを組織し、システムの設計・開発・導入の方法が人々の生活や社会、政治システムにどのような影響を与えるかを検証している。

メタ(Meta)のようなテック企業は、裁判所に命じられ、トラウマになりかねない画像や暴力的なコンテンツを精査する必要のあるコンテンツ・モデレーターなどの従業員に対して、補償や特別なメンタルヘルス支援を提供している。

しかし、ある従業員らがMITテクノロジーレビューに明かしたところによると、責任あるAIに携わるチームは、コンテンツ監視業務と並ぶくらい心理的負担が大きいにもかかわらず、自分たちで解決しなければならないことが多すぎるという。最終的に、こうしたチームのメンバーは過小評価されていると感じ、それがメンタルヘルスに悪影響を与え、燃え尽き症候群につながる恐れがあるわけだ。

ツイッターで機械学習倫理・透明性・説明責任チームを率い、応用AI倫理のパイオニアのひとりでもあるラマン・チョードリー博士は、前職でこうした問題に直面した。

「一時期は、完全に燃え尽きてしまい、絶望的な気分に陥りました」と、チョードリー博士は語る。

MITテクノロジーレビューが取材した現場スタッフたちは、口を揃えて自分たちの職務について熱く語っている。それは、情熱や危機感、そして現実の問題への解決策を講じることの満足感によって支えられているものだった。しかし、このような使命感は、適切なサポートがなければ重荷になりかねない。

「休むことが許されないと感じる環境です」とチョードリー博士は語る。「テック企業で働く従業員の中には、プラットフォーム上のユーザーの保護を責務としている人たちが大勢います。もし休暇を取ったり、24時間365日注意を払い続けなければ、何かとんでもなく悪いことが起こるような感覚に陥るのです」 。

ミッチェル博士がそれでもAI倫理の分野で働き続けるのは、「明確なニーズがある一方で、機械学習に携わる人々のうち、こうした問題を実際に認識している人が非常に少ないからです」と言う。

しかし、課題は山積している。企業は適切な支援もせずに、個人に対して重大で体系的な問題を解決するよう強い圧力をかけるだけだ。一方で、そうした人たちは、ネット上で絶え間なく激しい批判に晒されることも多々ある。

認知的不協和

AI倫理学者や責任あるAIチームに属する人の職務は多岐にわたる。AIシステムによる社会的影響の分析から、責任ある戦略や方針の策定、技術的問題の解決に至るまで、さまざまだ。一般的に、こうした人々は、AIによる悪影響を軽減させる方法を考案することも求められている。たとえば、ヘイトスピーチを拡散するアルゴリズムや、住宅や給付金などを偏って配分するシステム、生々しい暴力的な画像や言葉の拡散などへの対策をしなければならない。

人種差別や性差別、偏見といった根深い問題をAIシステムで解決しようとすると、たとえばレイプシーンや人種差別など、極めて有害な内容を含んだ大規模なデータセットを分析する必要が生じてくる場合もある。

AIシステムはしばしば、人種差別や性差別など、人間社会における最悪の諸問題をそのまま映し出し、さらに悪化させる。問題となる技術は、黒人をゴリラとして分類する顔認識システムから、ディープフェイク・ソフトウェアを悪用して女性本人の同意なくポルノビデオの出演者であるように見せかけた動画の作成など、広範囲にわたる。AI倫理の職務に就く傾向にある女性や有色人種、その他のマイノリティグループの人々にとって、こうした問題への対処は特に負担となる恐れがある。

燃え尽き症候群は、責任あるAIに携わる人々に限ったことではない。だが、MITテクノロジーレビューが取材をした専門家の誰もが、特にこの分野では厄介な問題となっていると指摘する。

「こうした人々は、個人的にも非常に傷つけられかねない事柄に日々取り組んでいます」と、ミッチェル博士は語る。「それが差別の実態をいっそう悪化させるのです。目を逸らすことができないのですから」 。

し …

こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る