グーグルも警戒、「AIをだます」敵対的機械学習に備えよ
機械学習システムの普及によって、「敵対的機械学習」と呼ばれる新たなセキュリティリスクが浮上している。グーグルとの共同研究にも取り組むカリフォルニア大学バークレー校のセキュリティ専門家ドーン・ソング教授は対処を訴えている。 by Will Knight2019.04.04
もし人工知能(AI)が悪意を持ったハッカーに翻弄されるのであれば、AIは何の変革ももたらさないだろう。
カリフォルニア大学バークレー校でAIと機械学習に関するセキュリティリスクを研究するドーン・ソング教授は、そのように警告した。
サンフランシスコで開催されたMITテクノロジーレビュー主催カンファレンス「EmTechデジタル」で講演したソング教授は、AI分野で「敵対的機械学習」と呼ばれる、機械学習システムを走査して操作する新たな技術が、AIを活用しようと考えているすべての者にとって大問題になり得ると警鐘を鳴らした。
敵対的機械学習は、機械学習を基盤とするあらゆるシステムの攻撃に使われる可能性があるというのだ。
「これは大問題です。私たちは1つになって、この問題に対処しなければなりません」とソング教授は聴衆に呼びかけた。
敵対的機械学習とは、実験的に情報を入力して、すでに学習された情報を表出させたり、システムが誤作動を起こすような歪めた情報を入力したりすることだ。たとえば、コンピューター・ビジョンのアルゴリズムに大量の画像を入力して、アルゴリズムをリバースエンジニアリングし、誤ったものも含めた特定の種類の情報 …
- 人気の記事ランキング
-
- It’s pretty easy to get DeepSeek to talk dirty 「お堅い」Claude、性的会話に応じやすいAIモデルは?
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Google’s new AI will help researchers understand how our genes work グーグルが「アルファゲノム」、遺伝子変異の影響を包括的に予測
- Calorie restriction can help animals live longer. What about humans? 「若返り薬」より効果? カロリー制限のメリット・デメリット
- When AIs bargain, a less advanced agent could cost you 大規模モデルはやっぱり強かった——AIエージェント、交渉結果に差