AIに声を「忘れさせる」新技術、なりすまし防止へ機械反学習を応用
韓国の研究チームが「機械反学習」でAIモデルから特定の音声を取り除く技術を開発した。数秒の音声で誰でも複製できる音声合成技術の悪用を防ぐ新手法として注目される。 by Peter Hall2025.07.17
- この記事の3つのポイント
-
- 韓国の研究チームが機械反学習を用いてAIモデルに特定の音声を忘れさせる手法を開発
- 音声生成モデルを改良し削除対象の声の模倣度を75%以上低下させることに成功
- ディープフェイク音声による詐欺やなりすまし行為の防止が期待される
「機械反学習(Machine unlearning)」と呼ばれる手法によって、AIモデルに特定の音声を忘れさせることが可能になる。他人の声を複製し、詐欺などに使われるディープフェイク音声の拡大を防ぐうえで重要な一歩だ。
近年の人工知能(AI)の進歩により、音声合成技術の精度は飛躍的に向上した。その結果、ロボットのような逐語的な読み上げではなく、自然な話し方やイントネーションを備えた任意の声で、テキストを説得力のある形で再現できるようになった。「ほんの数秒の音声サンプルがあれば、誰の声でも再現または複製できます」と語るのは、韓国の成均館大学校の教授で、音声生成への機械反学習の応用を示した新しい研究論文の共著者、コ・ジョンファンである。
複製された音声は、詐欺、デマ、嫌がらせなどにすでに悪用されている。音声処理を専門とするコ教授とその共同研究者らは、こうした「なりすまし行為」の防止を目指している。「人々は、自分の声が同意なく勝手に生成されることに『ノー』と言える手段を求め始めています」とコ教授は話す。
AI企業は通常、モデルの悪用を防ぐために厳格な管理体制を敷いている。たとえばチャットGPT(ChatGPT)に誰かの電話番号や違法行為の手順を尋ねても、「お手伝いできません」としか返ってこないはずだ。だが、多くの事例が示すように、巧妙なプロンプト・エンジニアリングやモデルのファインチューニング(微調整)によって、通常なら応答しないはずの情報をモデルから引き出すことが可能な場合がある。つまり、望ましくない情報はモデル内部のどこかに残されており、適切な手法を用いればアクセスできる可能性がある。
多くの企業は現在、「ガードレール」と呼ばれる制御策によってこの問題に対応している。これは、プロンプトやAIの応答に、許可されていない情報が含まれていないかを監視する方法である。一方、機械反学習は、AIに特定の情報を「忘れさせる」ことが可能かどうかを問うアプローチである。この手法では、不要な情報を保持している既存のモデルと、削除すべき訓練データを用いて、新たなモデルを構築する。つまり、元のモデルから一 …
- 人気の記事ランキング
-
- How AI and Wikipedia have sent vulnerable languages into a doom spiral AI翻訳のゴミに汚染された ウィキペディア、 マイナー言語にとどめ
- The three big unanswered questions about Sora 時間も資金も溶かす? AI動画SNS「Sora」3つの疑問
- Inside the most dangerous asteroid hunt ever 史上最も危険な小惑星 「2024 YR4」追った 科学者たちの60日間
- EV tax credits are dead in the US. Now what? 米EV減税が正式廃止、今後の動きをドイツの先例から予想