2018年に私が人工知能(AI)の取材を始めたちょうどその頃、AIの世界では大きな警鐘が鳴らされていた。この年のAI研究には、強化学習や敵対的生成ネットワーク(GANs)、自然言語理解の向上などいくつかの驚くべき進歩があった。しかしその一方で2018年はまた、いくつかの目立った事例により、AIシステムが急速に展開された場合に危害を引き起こす可能性があることが示された年でもあった。
テスラ(Tesla)の自動車がオートパイロットでドライバーの死亡事故を起こし、ウーバーの自動運転自動車が歩行者を死亡させる事故を起こした。商用顔認識システムが肌の色が濃い人々の監査でほとんど使い物にならないにも関わらず、大手テック企業は司法当局などの顧客相手に販売を続けた。2019年の初めに、これらの出来事を鑑みて、私はAIコミュニティ向けに解決案を書いた。AIを魔法のように扱うのをやめ、責任を持って作成、適用し、倫理的に規制しようということだった。
いくつかの点で、私の願いは叶った。2019年には、これまで以上にAI倫理の話題が増えた。多くの組織がAI倫理ガイドラインを作成した。企業は、責任のあるAIチームを大急ぎで設立し、メディアの前で見せびらかした。今では、AI関連のほとんどのカンファレンスで、倫理関連の話題がプログラムの一部を占めている。「AIが大量のデータを必要とする場合、どのように人々のプライバシーを保護するか」「 どうすれば社会的に無視されたコミュニティから搾取する代わりに、彼らに力を与えられるか」「 アルゴリズムが偽情報を作成・拡散しているのを目の当たりにして、メディアを信頼し続けるにはどうすればよいか」といった具合だ。
…
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
