アーティストvs AI第2ラウンドへ、防御ツール破る新技術
AIの訓練から作品を守る「グレーズ(Glaze)」などの防御ツールは750万人にダウンロードされ、アーティストたちの盾となってきた。だが、これらの防御策を無効化できる新技術が開発されたことで、アーティストとAI企業の攻防戦は新たな段階に突入する。 by Peter Hall2025.07.14
- この記事の3つのポイント
-
- アーティストの作品をAI訓練から守るグレーズなどの保護ツールを回避できる新技術が登場
- この技術では、保護ツールが仕込むデジタル毒を特定して除去する手法を確立した
- グレーズの開発者は、抑止力としてAI企業との協力を促す障壁になると述べている
「ライトシェッド(LightShed)」と呼ばれる新しい技術により、アーティストが既存の保護ツールを使用してAI訓練のために自分の作品が取り込まれるのを阻止することが難しくなる。これは、アーティストとAI支持者の間で技術、法律、文化の各分野にまたがって何年も続いているいたちごっこの次の段階である。
画像を生成する生成AIモデルは、多様な視覚素材で訓練される必要があり、訓練に使用されるデータセットには、許可なく著作権保護されたアート作品が含まれているとされている。これにより、モデルが自分たちのスタイルを学び、模倣し、仕事を奪うのではないかという懸念から、アーティストたちは不安を抱いている。
こうしたアーティストたちは2023年に、研究者が開発した「グレーズ(Glaze)」や「ナイトシェード(Nightshade)」といったツールによって、自身の作品をAI訓練から守る潜在的な防御手段を得た(ショーン・シャンはこれらの研究により、MITテクノロジーレビューの35歳未満のイノベーターに選出されている)。しかしライトシェッドは、これらのツールや類似ツールを回避できると主張し、アート作品を再び訓練に利用しやすくするとしている。
明確にしておくと、ライトシェッドの開発者たちはアーティストの作品を盗もうとしているわけではない。彼らは、人々に誤った安心感を与えたくないのだ。「企業がこれらの毒を除去する方法を持っていたとしても、それを教えてくれるとは限りません」。ケンブリッジ大学の博士課程学生でこの研究の主著者であるハンナ・フォルスターは述べている。そして仮にその方法があったとしても、問題に対処するにはすでに手遅れかもしれないという。
AIモデルは、画像カテゴリーの違いを認識する際に、暗黙の境界を形成することで機能している。グレーズやナイトシェードは、画像の品質を損なうことなく、アート作品をこの境界の外に押し出すために、十分な数のピクセルを変更し、モデルがその作品を本来とは異なるものとして認識するようにする。こうしたほとんど知覚できない変化は「摂動(Perturbation)」と呼ばれ、AIモデルの作品理解を妨げる。
グレーズはモデルにスタイルを誤認させる(たとえば写実的な絵を漫画と判断させる)。一方でナイトシェードは、作品中の被写体を誤認させる(たとえば猫を犬と認識させる)。グレーズはアーティストのスタイル保護に用いられ、ナイトシェードはネット上のアートを収集するAIモデルに対する攻撃として使われる。
フォルスターは、ダルムシュタット工科大学およびテキサス大学サンアントニオ校の研究チームと共同で、グレーズやナイトシェードなどのツールがアートに仕込むデジタル毒の位置を特定し、それを効果的に除去できるライトシェッドを開発した。研究成果は、8月に開催されるユーズニックス(Usenix)セキュリティ・シンポジウムで発表される予定だ。
研究チームは、ナイトシェードやグレーズなどの処理が施されたアート作品とそうでない作品を与えることで、ライトシェッドを訓練した。フォルスターはこのプロセスを、「毒化された画像から“毒だけ”を再構築するように教えること」だと説明している。AIモデルを混乱させるために必要な毒の量を見極めることで、毒だけを洗い落とすのが容易になる。
ライトシェッドはこの点で非常に効果的である。他の研究者たちが毒化を回避する単純な手法を発見した一方で、ライトシェッドはより柔軟に適応できるように見える。たとえば、ナイトシェードで学んだことを、ミスト(Mist)やメタクローク(MetaCloak)など、未知のツールにも応用できる。少量の毒に対してはやや効果が落ちるが、それはAIモデルの性能にはあまり影響しないため、AIにとっては「勝ち」、アーティストにとっては「負け」となる。
グレーズはこれまでに約750万人にダウンロードされており、その多くはリソースの限られた中小規模のフォロワーを持つアーティストたちである。グレーズのようなツールを使用する人々は、AI訓練と著作権をめぐる規制が未整備な現状において、これを重要な技術的防御手段と見なしている。ライトシェッドの開発者たちは、自分たちの研究がこうしたツールが恒久的な解決策ではないという警告になると考えている。「より良い防御策を生み出すためには、さらに試行を重ねることが必要かもしれません」とフォルスターは述べている。
グレーズとナイトシェードの開発者たちも、この見解に同意しているようだ。ナイトシェードのWebサイトでは、ライトシェッドの開発が始まる前から、将来的にこのツールが無効化される可能性を警告していた。両ツールの研究を主導したシャンは、たとえ回避手段が存在しても、防御策としての意義は残ると信じている。
「これは抑止力です」とシャンは語る。アーティストが自身の懸念を真剣に捉えていることをAI企業に示す手段なのである。彼の言葉によれば、目指すのはAI企業に対し、アーティストと協力する方が簡単だと思わせるほど多くの障壁を設置することだ。「多くのアーティストは、これは一時的な解決策であることを理解しています」としつつも、作品の不本意な利用を阻止する障壁を築くことには依然として価値があると語る。
フォルスターは、ライトシェッド を通じて得た知見を活用し、AIを通過した後でも何らかの形で残存する巧妙なウォーターマークを含む、新たなアーティスト向け防御策の構築を目指している。彼女は、これがAIから作品を永続的に守るとは考えていないが、再びアーティストに有利な状況を作り出す助けにはなるかもしれないと述べている。
- 人気の記事ランキング
-
- What comes next for AI copyright lawsuits? AI著作権訴訟でメタとアンソロピックが初勝利、今後の展開は?
- Promotion MITTR Emerging Technology Nite #33 バイブコーディングって何だ? 7/30イベント開催のお知らせ
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- Why the US and Europe could lose the race for fusion energy 核融合でも中国が優位に、西側に残された3つの勝機
- Namibia wants to build the world’s first hydrogen economy 砂漠の国・ナミビア、 世界初「水素立国」への夢
- Don’t let hype about AI agents get ahead of reality 期待先行のAIエージェント、誇大宣伝で「バブル崩壊」のリスク

- ピーター・ホール [Peter Hall]米国版 編集フェロー
- MITテクノロジーレビューの編集フェロー。ニューヨーク大学の博士課程で理論暗号を研究している。