主張:未来の脅威よりも深刻な現実のAI被害を直視すべき理由
先駆的なAI倫理の研究で知られるジョイ・ブオラムウィニ博士は、将来の危機を恐れるあまり、AIシステムがすでに人々を傷つけている事実が見えなくなっていると主張する。 by MIT Technology Review Editors2023.12.17
この記事は、2023年10月31日に刊行されたジョイ・ブオラムウィニの新刊『Unmasking AI: My Mission to Protect What Is Human in a World of Machines(AI の仮面を剥ぐ: 機械の世界で人間らしさを守ることが私の使命)』(未邦訳)からの抜粋である。原文に若干の編集を加えている。
(人類絶滅を意味する)「Xリスク」という言葉は、AIがもたらす仮定的な実存的リスクの略語として使われている。私の研究は、AIシステムを兵器システムに組み込むのは、人を死に至らしめる危険性があるため、するべきでないとの考えを支持するものだが、これはAIシステム自体が超知能的主体として実存的リスクをもたらすと考えているからではない。
AIシステムが個人を犯罪容疑者として誤って分類したり、ロボットが取り締まりに使われたり、欠陥がある歩行者追跡システムを搭載した自動運転車が走ったりすることは、既に人の命を危険にさらしている可能性がある。悲しいことに、個人の生命に致命的な結果をもたらすためには、AIシステムが超知性を持つ必要はない。現実に被害をもたらしている既存のAIシステムは、現実のものなのだから、仮定の「知覚を持つ」AIシステムよりも危険だ。
仮定の実存的リスクの被害の方が重大だと言って、既存のAIの被害を最小化することの1つの問題は、貴重なリソースや法制化に向けた注目の流れを変えてしまうことだ。AIによる実存的リスクを恐れていると主張する企業は、人類を滅亡させる可能性があると主張するAIツールをリリースしないことで、人類を守ることへの真のコミットメントを示せるかもしれない。 …
- 人気の記事ランキング
-
- Stratospheric internet could finally start taking off this year グーグルもメタも失敗した 「成層圏ネット」再挑戦、 2026年に日本で実証実験
- Promotion Emerging Technology Nite #36 Special 【3/9開催】2026年版「新規事業の発想と作り方」開催のお知らせ
- The first human test of a rejuvenation method will begin “shortly” ハーバード大教授主導の 「若返り治療」初の試験へ、 イーロン・マスクも関心
- Microbes could extract the metal needed for cleantech 微生物で「老朽鉱山」再生、バイオマイニングは金属需要に間に合うか
- What’s next for EV batteries in 2026 米国後退、加速する中国支配 EVバッテリー市場、 2026年はどう動く?
