グーグルも警戒、「AIをだます」敵対的機械学習に備えよ
機械学習システムの普及によって、「敵対的機械学習」と呼ばれる新たなセキュリティリスクが浮上している。グーグルとの共同研究にも取り組むカリフォルニア大学バークレー校のセキュリティ専門家ドーン・ソング教授は対処を訴えている。 by Will Knight2019.04.04
もし人工知能(AI)が悪意を持ったハッカーに翻弄されるのであれば、AIは何の変革ももたらさないだろう。
カリフォルニア大学バークレー校でAIと機械学習に関するセキュリティリスクを研究するドーン・ソング教授は、そのように警告した。
サンフランシスコで開催されたMITテクノロジーレビュー主催カンファレンス「EmTechデジタル」で講演したソング教授は、AI分野で「敵対的機械学習」と呼ばれる、機械学習システムを走査して操作する新たな技術が、AIを活用しようと考えているすべての者にとって大問題になり得ると警鐘を鳴らした。
敵対的機械学習は、機械学習を基盤とするあらゆるシステムの攻撃に使われる可能性があるというのだ。
「これは大問題です。私たちは1つになって、この問題に対処しなければなりません」とソング教授は聴衆に呼びかけた。
敵対的機械学習とは、実験的に情報を入力して、すでに学習された情報を表出させたり、システムが誤作動を起こすような歪めた情報を入力したりすることだ。たとえば、コンピューター・ビジョンのアルゴリズムに大量の画像を入力して、アルゴリズムをリバースエンジニアリングし、誤ったものも含めた特定の種類の情報 …
- 人気の記事ランキング
-
- This company claims a battery breakthrough. Now they need to prove it. すべてのパラメーターが矛盾——「出来すぎ」全固体電池は本物か?
- OpenAI’s “compromise” with the Pentagon is what Anthropic feared アンソロピック排除の裏で進んだオープンAIの軍事契約、その代償は
- AI is rewiring how the world’s best Go players think 「アルファ碁」から10年、 AIは囲碁から 創造性を奪ったのか
- How uncrewed narco subs could transform the Colombian drug trade 中には誰もいなかった—— コカイン密輸組織が作った 「自律潜水ドローン」の脅威