「実在しない顔」は実在しない? AIが作った架空の顔を巻き戻す
深層学習モデルは内部で何が起こっているのかが明らかにならない「ブラック・ボックス」であり、情報は漏れない。こうした一般的な考え方に疑問を投げかける研究成果が発表されている。 by Will Douglas Heaven2021.10.19
「この人は実在していません(This Person Does Not Exist)」というWebサイトを読み込むと、人の顔が表示される。実在する人の顔に限りなく近いが、まったくの架空の顔だ。ページをリロードするたびに、裏で作動しているニューラル・ネットワークが、次から次へと新しい架空の顔を表示する。人工知能(AI)が作成する無限に続く架空の顔は、GAN(敵対的生成ネットワーク)によって生成されているものだ。GANは、訓練データから本物そっくりの偽のサンプルを作成するように学習する、AIの一種である。
こうしたAIによって作成された顔は、CGを使った映画や広告に使われ始めている。だが、実は見た目ほど唯一無二な顔ではないのかもしれない。フランス・カーン大学のライアン・ウェブスターらが発表した論文『この人は(おそらく)実在しています(This Person (Probably) Exists)』は、GANにより生成された架空の顔の多くには、実在する人の顔を使った訓練データとの間に著しい類似点があると指摘している。架空の顔はGANの訓練に用いられた実在する顔を事実上明らかにでき、訓練データとして使われた個人の身元の公開を可能にしてしまう。AIモデルは一般に内部で何が起こっているか分からない「ブラック・ボックス」だとされるが、こうした考え方に疑問を投げかける最新の研究である。
ウェブスターら研究チームは、訓練データに隠されている個人の正体を明らかにするために、「メンバーシップ攻撃(Membership attack)」を使った。メンバーシップ攻撃は、あるデータがAIモデルの訓練に使われたかどうかを判別するのに使える手法だ。この攻撃では一般的に、あるAIモデルを訓練したデータ、つまりすでに数千回も目にしたデータと初見のデータとの間の、微妙な違いをうまく利用する。例えば、あるモデルは以前見たことがない画像を正確に識別できるが、訓練に使われた画像と比べるとわずかに信頼度が落ちる。2つ目のモデルは、最初のモデルの振る舞いからヒントを得て、写真などの特定のデータが訓練データセットに含まれているか予測することを学習できる。
このような攻撃は、深刻な情報漏れにつながる恐れがある。例えば、ある人の医療データが疾病と関係するモデルの訓練に使われていたことが …
- 人気の記事ランキング
-
- Quantum physicists have shrunk and “de-censored” DeepSeek R1 量子技術でDeepSeekを55%小型化、「検閲解除」にも成功
- Promotion Innovators Under 35 Japan Summit 2025 2025年のイノベーターが集結「IU35 Summit」参加者募集
- Google’s new Gemini 3 “vibe-codes” responses and comes with its own agent グーグルが「Gemini 3」発表、質問に応じて回答形式もAIが判断
- Text-to-image AI models can be tricked into generating disturbing images AIモデル、「脱獄プロンプト」で不適切な画像生成の新手法
- What is the chance your plane will be hit by space debris? 空からゴミが降ってくる—— 衛星10万基時代のリスク、 航空への影響は?【解説】
