KADOKAWA Technology Review
×
主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由
Stephanie Arnett/MITTR | Envato
人工知能(AI) 無料会員限定
We need to focus on the AI harms that already exist

主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由

先駆的なAI倫理の研究で知られるジョイ・ブオラムウィニ博士は、将来の危機を恐れるあまり、AIシステムがすでに人々を傷つけている事実が見えなくなっていると主張する。 by MIT Technology Review Editors2023.12.17

この記事は、2023年10月31日に刊行されたジョイ・ブオラムウィニの新刊『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)からの抜粋である。原文に若干の編集を加えている。

(人類絶滅を意味する)「Xリスク」という言葉は、AIがもたらす仮定的な実存的リスクの略語として使われている。私の研究は、AIシステムを兵器システムに組み込むのは、人を死に至らしめる危険性があるため、するべきでないとの考えを支持するものだが、これはAIシステム自体が超知能的主体として実存的リスクをもたらすと考えているからではない。

AIシステムが個人を犯罪容疑者として誤って分類したり、ロボットが取り締まりに使われたり、欠陥がある歩行者追跡システムを搭載した自動運転車が走ったりすることは、既に人の命を危険にさらしている可能性がある。悲しいことに、個人の生命に致命的な結果をもたらすためには、AIシステムが超知性を持つ必要はない。現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ。

仮定の実存的リスクの被害の方が重大だと言って、既存のAIの被害を最小化することの1つの問題は、貴重なリソースや法制化に向けた注目の流れを変えてしまうことだ。AIによる実存的リスクを恐れていると主張する企業は、人類を滅亡させる可能性があると主張するAIツールをリリースしないことで、人類を守ることへの真のコミットメントを示せるかもしれない。 …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
人気の記事ランキング
  1. We finally have a definition for open-source AI 「オープンソースAI」問題ついに決着、OSIが定義を発表
  2. Here’s how people are actually using AI カネにならない生成AIブーム、LLMはどう使われているか?
  3. The US physics community is not done working on trust 物理学界で繰り返される研究不正、再発防止には何が必要か
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。2024年も候補者の募集を開始しました。 世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を随時発信中。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2024年版

「ブレークスルー・テクノロジー10」は、人工知能、生物工学、気候変動、コンピューティングなどの分野における重要な技術的進歩を評価するMITテクノロジーレビューの年次企画だ。2024年に注目すべき10のテクノロジーを紹介しよう。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る