KADOKAWA Technology Review
×
主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由
Stephanie Arnett/MITTR | Envato
人工知能(AI) 無料会員限定
We need to focus on the AI harms that already exist

主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由

先駆的なAI倫理の研究で知られるジョイ・ブオラムウィニ博士は、将来の危機を恐れるあまり、AIシステムがすでに人々を傷つけている事実が見えなくなっていると主張する。 by MIT Technology Review Editors2023.12.17

この記事は、2023年10月31日に刊行されたジョイ・ブオラムウィニの新刊『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)からの抜粋である。原文に若干の編集を加えている。

(人類絶滅を意味する)「Xリスク」という言葉は、AIがもたらす仮定的な実存的リスクの略語として使われている。私の研究は、AIシステムを兵器システムに組み込むのは、人を死に至らしめる危険性があるため、するべきでないとの考えを支持するものだが、これはAIシステム自体が超知能的主体として実存的リスクをもたらすと考えているからではない。

AIシステムが個人を犯罪容疑者として誤って分類したり、ロボットが取り締まりに使われたり、欠陥がある歩行者追跡システムを搭載した自動運転車が走ったりすることは、既に人の命を危険にさらしている可能性がある。悲しいことに、個人の生命に致命的な結果をもたらすためには、AIシステムが超知性を持つ必要はない。現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ。

仮定の実存的リスクの被害の方が重大だと言って、既存のAIの被害を最小化することの1つの問題は、貴重なリソースや法制化に向けた注目の流れを変えてしまうことだ。AIによる実存的リスクを恐れていると主張する企業は、人類を滅亡させる可能性があると主張するAIツールをリリースしないことで、人類を守ることへの真のコミットメントを示せるかもしれない。 …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
人気の記事ランキング
  1. Inside the tedious effort to tally AI’s energy appetite 動画生成は別次元、思ったより深刻だったAIの電力問題
  2. Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
  3. IBM aims to build the world’s first large-scale, error-corrected quantum computer by 2028 IBM、世界初の大規模誤り訂正量子コンピューター 28年実現へ
  4. What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る