2018年に私が人工知能(AI)の取材を始めたちょうどその頃、AIの世界では大きな警鐘が鳴らされていた。この年のAI研究には、強化学習や敵対的生成ネットワーク(GANs)、自然言語理解の向上などいくつかの驚くべき進歩があった。しかしその一方で2018年はまた、いくつかの目立った事例により、AIシステムが急速に展開された場合に危害を引き起こす可能性があることが示された年でもあった。
テスラ(Tesla)の自動車がオートパイロットでドライバーの死亡事故を起こし、ウーバーの自動運転自動車が歩行者を死亡させる事故を起こした。商用顔認識システムが肌の色が濃い人々の監査でほとんど使い物にならないにも関わらず、大手テック企業は司法当局などの顧客相手に販売を続けた。2019年の初めに、これらの出来事を鑑みて、私はAIコミュニティ向けに解決案を書いた。AIを魔法のように扱うのをやめ、責任を持って作成、適用し、倫理的に規制しようということだった。
いくつかの点で、私の願いは叶った。2019年には、これまで以上にAI倫理の話題が増えた。多くの組織がAI倫理ガイドラインを作成した。企業は、責任のあるAIチームを大急ぎで設立し、メディアの前で見せびらかした。今では、AI関連のほとんどのカンファレンスで、倫理関連の話題がプログラムの一部を占めている。「AIが大量のデータを必要とする場合、どのように人々のプライバシーを保護するか」「 どうすれば社会的に無視されたコミュニティから搾取する代わりに、彼らに力を与えられるか」「 アルゴリズムが偽情報を作成・拡散しているのを目の当たりにして、メディアを信頼し続けるにはどうすればよいか」といった具合だ。
…
- 人気の記事ランキング
-
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- 3 things that didn’t make the 10 Breakthrough Technologies of 2025 list 2025年版「世界を変える10大技術」から漏れた候補3つ
- The startup trying to turn the web into a database Webをデータベースに変える、新発想のLLM検索エンジン
- OpenAI’s new defense contract completes its military pivot オープンAIが防衛進出、「軍事利用禁止」から一転