2018年に私が人工知能(AI)の取材を始めたちょうどその頃、AIの世界では大きな警鐘が鳴らされていた。この年のAI研究には、強化学習や敵対的生成ネットワーク(GANs)、自然言語理解の向上などいくつかの驚くべき進歩があった。しかしその一方で2018年はまた、いくつかの目立った事例により、AIシステムが急速に展開された場合に危害を引き起こす可能性があることが示された年でもあった。
テスラ(Tesla)の自動車がオートパイロットでドライバーの死亡事故を起こし、ウーバーの自動運転自動車が歩行者を死亡させる事故を起こした。商用顔認識システムが肌の色が濃い人々の監査でほとんど使い物にならないにも関わらず、大手テック企業は司法当局などの顧客相手に販売を続けた。2019年の初めに、これらの出来事を鑑みて、私はAIコミュニティ向けに解決案を書いた。AIを魔法のように扱うのをやめ、責任を持って作成、適用し、倫理的に規制しようということだった。
いくつかの点で、私の願いは叶った。2019年には、これまで以上にAI倫理の話題が増えた。多くの組織がAI倫理ガイドラインを作成した。企業は、責任のあるAIチームを大急ぎで設立し、メディアの前で見せびらかした。今では、AI関連のほとんどのカンファレンスで、倫理関連の話題がプログラムの一部を占めている。「AIが大量のデータを必要とする場合、どのように人々のプライバシーを保護するか」「 どうすれば社会的に無視されたコミュニティから搾取する代わりに、彼らに力を与えられるか」「 アルゴリズムが偽情報を作成・拡散しているのを目の当たりにして、メディアを信頼し続けるにはどうすればよいか」といった具合だ。
…
- 人気の記事ランキング
-
- How to run an LLM on your laptop チャットGPTからの卒業:自分のパソコンでLLMを動かしてみよう
- Promotion MITTR Emerging Technology Nite #34 【9/10開催】伝説の玩具「アームトロン」開発者が誕生秘話を語る
- Apple AirPods : a gateway hearing aid お値段10分の1のAirPods補聴器はどれぐらい使える?
- On the ground in Ukraine’s largest Starlink repair shop <現地ルポ>ウクライナの 生命線「スターリンク」 1万台超を直した非公式工場
- Should AI flatter us, fix us, or just inform us? 迷走したチャットGPTの人格設計、問われる人間との距離感