音声認識AIをこっそり騙す方法、UCバークレーの研究者ら開発

A New Trick Can Spoof a Speech Recognition AI Every Time 音声認識AIをこっそり騙す方法、UCバークレーの研究者ら開発

実質的には同じ音声なのに、音声波形を利用することで、音声認識ソフトウェアがまったく異なる内容を書き起こす音声を作成できるようになった。 by Jackie Snow2018.01.12

実質的には同じ音声なのに、音声波形を利用することで、音声認識ソフトウェアがまったく異なる内容を書き起こす音声を作成できるようになった。

敵対的サンプル(Adversarial examples)によって、多くのコンピューター・ビジョン・アルゴリズムが欺かれてきた。あらゆるニューラル・ネットワークは敵対的な攻撃に弱い性質を持つが、音声に関してはなかなかうまくいかなかった。これまでの攻撃では、ソフトウェアが聞き取る音声をわずかに変えることしかできなかったのだ。

カリフォルニア大学バークレー校の研究者らは波形を利用して音の層を足すことで、最先端の音声認識AIであるディープスピーチ(DeepSpeech)を毎回欺けることを示した。この手法を使うことで、音楽を任意の発言や不明瞭な音声としてAIに認識させ、書き起こされないようにできる。

たとえば、YouTubeのミュージック・ビデオをスピーカーで再生しているときに、アレクサ(Alexa)が2トンのクリームコーンの注文を「聞き取った」らどれだけ迷惑だろうか。AIへの攻撃を防ぐ対策は不可欠だ。