音声認識AIをこっそり騙す方法、UCバークレーの研究者ら開発
実質的には同じ音声なのに、音声波形を利用することで、音声認識ソフトウェアがまったく異なる内容を書き起こす音声を作成できるようになった。
敵対的サンプル(Adversarial examples)によって、多くのコンピューター・ビジョン・アルゴリズムが欺かれてきた。あらゆるニューラル・ネットワークは敵対的な攻撃に弱い性質を持つが、音声に関してはなかなかうまくいかなかった。これまでの攻撃では、ソフトウェアが聞き取る音声をわずかに変えることしかできなかったのだ。
カリフォルニア大学バークレー校の研究者らは波形を利用して音の層を足すことで、最先端の音声認識AIであるディープスピーチ(DeepSpeech)を毎回欺けることを示した。この手法を使うことで、音楽を任意の発言や不明瞭な音声としてAIに認識させ、書き起こされないようにできる。
たとえば、YouTubeのミュージック・ビデオをスピーカーで再生しているときに、アレクサ(Alexa)が2トンのクリームコーンの注文を「聞き取った」らどれだけ迷惑だろうか。AIへの攻撃を防ぐ対策は不可欠だ。
- 参照元: arXiv
5Gから6Gへ、通信の世界的研究者・太田 香教授「U35」へのメッセージ
世界の工学者を魅了し続ける
eムック 「パワー・ハングリー AIとエネルギーの未来」特集号
壁を突破する「覚悟」——再生医療産業を開拓、畠 賢一郎氏に聞く
書評:サム・アルトマンはいかにして「AI帝国」を築いたか