グーグルがAI生成画像に電子透かし、大手テック企業で初
知性を宿す機械

Google DeepMind has launched a watermarking tool for AI-generated images グーグルがAI生成画像に電子透かし、大手テック企業で初

生成AIが爆発的に広がる中、AI生成画像による被害が広がっている。AI生成画像に「電子透かし」を入れるツールを、グーグルが大手テック企業としては初めてサービスに組み込んだ。 by Melissa Heikkilä2023.09.05

グーグル・ディープマインドは、画像が人工知能(AI)によって生成されたものかどうかを示す、新しい電子透かし(ウォーターマーク)ツールをリリースした。

シンスID(SynthID)と呼ばれるこのツールは、当初はグーグル・クラウドの機械学習プラットフォームであるバーテックス(Vertex)でホストされているAI画像生成ツール、イメージェン(Imagen)のユーザーのみ利用できる。ユーザーはイメージェンを使って画像を生成し、透かしを入れるかどうかを選択できる。この透かしにより、AI生成コンテンツが本物と偽装されている場合に識別したり、著作権を保護するのに役立てたりすることが期待されている。

この1年間で、生成AI(ジェネレーティブAI)モデルは絶大な人気を得たが、同時に、AIが生成するディープフェイク、同意のないポルノ、著作権侵害の急増といった問題も広がっている。電子透かしは、AIによる生成物として識別するための信号をテキストや画像に埋め込む技術だ。被害対策として提案されている中では、もっとも一般的な方法となっている。

ホワイトハウスは今年7月、AI生成コンテンツの悪用を抑制するために、オープンAI(OpenAI)、グーグル、メタ(Meta)などの大手AI企業から、電子透かしツールの開発について自発的な約束を取り付けたと発表した。

5月に開催されたグーグルI/Oでは、グーグルのサンダー・ピチャイ最高経営責任者(CEO)が、最初から電子透かしやその他の技術を組み込んだモデルを構築中だと述べた。グーグル・ディープマインドは、電子透かしツールを一般公開した最初の大手テック企業となる。

従来の電子透かしは、目視で確認できるオーバーレイを画像に追加するか、メタデータに情報を追加する方法が一般的だった。しかし、こうした方法は「脆弱」で、画像のトリミングやサイズ変更、編集によって透かしが消えることがある、とグーグル・ディープマインドのプシュミート・コーリ研究担当副社長は話す。

シンスIDは、2つのニューラル・ネットワークを使って作られる。1つ目のニューラル・ネットワークは、元画像を取り込み、それとほぼ同じに見えるが一部のピクセルを微妙に変更した別の画像を生成する。これにより、人間の目には見えないパターンが画像に埋め込まれる。2つ目のニューラル・ネットワークはパターンを検出し、電子透かしを見つけたのか、画像に透かしがあると考えられるのか、または透かしがないと判断したのかをユーザーに伝える。コーリ副社長によると、シンセIDは画像がスクリーンショットとして撮影された場合や、回転やサイズ変更といった編集がされた場合でも、透かしが検出できるように設計されているという。

シカゴ大学のベン・ザオ教授は、この種の透かし技術に取り組んでいるのはグーグル・ディープマインドだけではないと説明する。同教授は、アーティストの画像がAIシステムによってスクレイピングされるのを防ぐシステムの開発に取り組んできた。同様の技術はすでに存在しており、オープンソースのAI画像ジェネレーターであるステーブル・ディフュージョン(Stable Diffusion)で利用されている。メタも電子透かしを研究しているが、まだ一般公開はしていない。

コーリ副社長は、グーグル・ディープマインドの電子透かしについて、完璧ではないものの従来の方法よりも耐性があると主張する。

一方で、ザオ教授は懐疑的だ。「長期的な堅牢性が証明された電子透かしはほとんどありません」。テキスト向けの電子透かしに関する初期の研究では、数か月以内に簡単に突破されてしまうことが判明している。

悪意ある行為者は、例えば、存在しない犯罪や出来事の本物の証拠写真としてディープフェイク・コンテンツを利用するため、電子透かしの破壊を重視しているとザオ教授は付け加える。

「ディープフェイク画像を本物と宣伝したり、本物の写真を偽物として信用を落としたりしようと企む攻撃者は得られるものが多いため、トリミングや非可逆圧縮、色の変更といった程度では満足しないでしょう」(ザオ教授)。

それでも、グーグル・ディープマインドの発表は幸先の良い第一歩だ。非営利ートナーシップ・オン・AI(Partnership on AI)でAI・メディアインテグリティ(AI and Media Integrity)プログラムの責任者を務めるクレア・レイボヴィッチは、どの技術が機能し、何が機能しないのかについて、この分野におけるより良い情報の共有につながる可能性があると指摘する。

「本当に状況が複雑だという事実に私たちが麻痺して、何もしないわけにはいかないのです」(レイボヴィッチ責任者)。

コーリ副社長はMITテクノロジーレビューの取材に対し、同社の透かしツールは「実験的」であり、このツールをより広く展開する前に、人々がどのように利用するのかを確認し、長所と短所について学びたいと話した。ただ、イメージェンで生成された画像以外でも透かしツールを展開するかどうかは、明言を避けた。また、同社が自社のAI画像生成システムに透かしを追加するかどうかについても言及しなかった。

AIスタートアップのハギング・フェイス(Hugging Face)の研究者であるサーシャ・ルッチョーニ博士は、グーグルの電子透かしツールの運用が不透明なため、ツールの有用性は制限されると話す。透かしツールを独占的なものとして維持するというグーグルの決定は、透かしの埋め込みと検出を実行できるのがグーグルのみであることを意味しているからだという。

「画像生成システム全体に透かしのコンポーネントを追加すれば、ディープフェイク・ポルノのような被害のリスクは減るでしょう」(ルッチョーニ博士)。