AIに声を「忘れさせる」新技術、なりすまし防止へ機械反学習を応用
韓国の研究チームが「機械反学習」でAIモデルから特定の音声を取り除く技術を開発した。数秒の音声で誰でも複製できる音声合成技術の悪用を防ぐ新手法として注目される。 by Peter Hall2025.07.17
- この記事の3つのポイント
-
- 韓国の研究チームが機械反学習を用いてAIモデルに特定の音声を忘れさせる手法を開発
- 音声生成モデルを改良し削除対象の声の模倣度を75%以上低下させることに成功
- ディープフェイク音声による詐欺やなりすまし行為の防止が期待される
「機械反学習(Machine unlearning)」と呼ばれる手法によって、AIモデルに特定の音声を忘れさせることが可能になる。他人の声を複製し、詐欺などに使われるディープフェイク音声の拡大を防ぐうえで重要な一歩だ。
近年の人工知能(AI)の進歩により、音声合成技術の精度は飛躍的に向上した。その結果、ロボットのような逐語的な読み上げではなく、自然な話し方やイントネーションを備えた任意の声で、テキストを説得力のある形で再現できるようになった。「ほんの数秒の音声サンプルがあれば、誰の声でも再現または複製できます」と語るのは、韓国の成均館大学校の教授で、音声生成への機械反学習の応用を示した新しい研究論文の共著者、コ・ジョンファンである。
複製された音声は、詐欺、デマ、嫌がらせなどにすでに悪用されている。音声処理を専門とするコ教授とその共同研究者らは、こうした「なりすまし行為」の防止を目指している。「人々は、自分の声が同意なく勝手に生成されることに『ノー』と言える手段を求め始めています」とコ教授は話す。
AI企業は通常、モデルの悪用を防ぐために厳格な管理体制を敷いている。たとえばチャットGPT(ChatGPT)に誰かの電話番号や違法行為の手順を尋ねても、「お手伝いできません」としか返ってこないはずだ。だが、多くの事例が示すように、巧妙なプロンプト・エンジニアリングやモデルのファインチューニング(微調整)によって、通常なら応答しないはずの情報をモデルから引き出すことが可能な場合がある。つまり、望ましくない情報はモデル内部のどこかに残されており、適切な手法を用いればアクセスできる可能性がある。
多くの企業は現在、「ガードレール」と呼ばれる制御策によってこの問題に対応している。これは、プロンプトやAIの応答に、許可されていない情報が含まれていないかを監視する方法である。一方、機械反学習は、AIに特定の情報を「忘れさせる」ことが可能かどうかを問うアプローチである。この手法では、不要な情報を保持している既存のモデルと、削除すべき訓練データを用いて、新たなモデルを構築する。つまり、元のモデルから一 …
- 人気の記事ランキング
-
- Inside the race to find GPS alternatives GPSに代わる選択肢を、 地球低軌道で100倍強い 次世代測位システム
- Promotion MITTR Emerging Technology Nite #33 バイブコーディングって何だ? 7/30イベント開催のお知らせ
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Why the US and Europe could lose the race for fusion energy 核融合でも中国が優位に、西側に残された3つの勝機
- Trajectory of U35 Innovators: Yoichi Ochiai 落合陽一:「デジタルネイチャー」の表現者が万博に込めた思い
- What comes next for AI copyright lawsuits? AI著作権訴訟でメタとアンソロピックが初勝利、今後の展開は?