KADOKAWA Technology Review
×
主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由
Stephanie Arnett/MITTR | Envato
人工知能(AI) 無料会員限定
We need to focus on the AI harms that already exist

主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由

先駆的なAI倫理の研究で知られるジョイ・ブオラムウィニ博士は、将来の危機を恐れるあまり、AIシステムがすでに人々を傷つけている事実が見えなくなっていると主張する。 by MIT Technology Review Editors2023.12.17

この記事は、2023年10月31日に刊行されたジョイ・ブオラムウィニの新刊『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)からの抜粋である。原文に若干の編集を加えている。

(人類絶滅を意味する)「Xリスク」という言葉は、AIがもたらす仮定的な実存的リスクの略語として使われている。私の研究は、AIシステムを兵器システムに組み込むのは、人を死に至らしめる危険性があるため、するべきでないとの考えを支持するものだが、これはAIシステム自体が超知能的主体として実存的リスクをもたらすと考えているからではない。

AIシステムが個人を犯罪容疑者として誤って分類したり、ロボットが取り締まりに使われたり、欠陥がある歩行者追跡システムを搭載した自動運転車が走ったりすることは、既に人の命を危険にさらしている可能性がある。悲しいことに、個人の生命に致命的な結果をもたらすためには、AIシステムが超知性を持つ必要はない。現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ。

仮定の実存的リスクの被害の方が重大だと言って、既存のAIの被害を最小化することの1つの問題は、貴重なリソースや法制化に向けた注目の流れを変えてしまうことだ。AIによる実存的リスクを恐れていると主張する企業は、人類を滅亡させる可能性があると主張するAIツールをリリースしないことで、人類を守ることへの真のコミットメントを示せるかもしれない。 …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る