グーグルも警戒、「AIをだます」敵対的機械学習に備えよ
機械学習システムの普及によって、「敵対的機械学習」と呼ばれる新たなセキュリティリスクが浮上している。グーグルとの共同研究にも取り組むカリフォルニア大学バークレー校のセキュリティ専門家ドーン・ソング教授は対処を訴えている。 by Will Knight2019.04.04
もし人工知能(AI)が悪意を持ったハッカーに翻弄されるのであれば、AIは何の変革ももたらさないだろう。
カリフォルニア大学バークレー校でAIと機械学習に関するセキュリティリスクを研究するドーン・ソング教授は、そのように警告した。
サンフランシスコで開催されたMITテクノロジーレビュー主催カンファレンス「EmTechデジタル」で講演したソング教授は、AI分野で「敵対的機械学習」と呼ばれる、機械学習システムを走査して操作する新たな技術が、AIを活用しようと考えているすべての者にとって大問題になり得ると警鐘を鳴らした。
敵対的機械学習は、機械学習を基盤とするあらゆるシステムの攻撃に使われる可能性があるというのだ。
「これは大問題です。私たちは1つになって、この問題に対処しなければなりません」とソング教授は聴衆に呼びかけた。
敵対的機械学習とは、実験的に情報を入力して、すでに学習された情報を表出させたり、システムが誤作動を起こすような歪めた情報を入力したりすることだ。たとえば、コンピューター・ビジョンのアルゴリズムに大量の画像を入力して、アルゴリズムをリバースエンジニアリングし、誤ったものも含めた特定の種類の情報 …
- 人気の記事ランキング
-
- China built hundreds of AI data centers to catch the AI boom. Now many stand unused. AIデータセンター 中国でバブル崩壊か? 需要低迷で大量放置の実態
- Why handing over total control to AI agents would be a huge mistake 「AIがやりました」 便利すぎるエージェント丸投げが危うい理由
- An ancient man’s remains were hacked apart and kept in a garage 切り刻まれた古代人、破壊的発掘から保存重視へと変わる考古学
- China built hundreds of AI data centers to catch the AI boom. Now many stand unused. AIデータセンター 中国でバブル崩壊か? 需要低迷で大量放置の実態