編集履歴も全部残す、生成AI時代にC2PAは「当たり前」になるか?
知性を宿す機械

The race to find a better way to label AI 編集履歴も全部残す、生成AI時代にC2PAは「当たり前」になるか?

テック企業大手やメディア企業大手の支援を得て開発された「C2PA」は、画像や動画に出所や編集履歴を示すラベルを付与するプロトコルだ。生成AIの急速な普及に伴い、注目度が高まっている。 by Tate Ryan-Mosley2023.08.16

この記事は米国版ニュースレターを一部再編集したものです。

人工知能(AI)が生成または改変したコンテンツを特定することを目的とした、テック企業大手やメディア企業大手が支援するプロジェクトについて、先日、短い記事を書いた。

AIが生成するテキストや画像、動画が急増する中、一般のインターネット・ユーザーからも透明性の向上を訴える声が上がっている。AI生成コンテンツに単純にラベルの追加を求めることは、とても理にかなったことのように思える(実際のところ筋が通っている)が、現実には簡単なことではない。さらにAIによる検出ツールや電子透かし(ウォーターマーク)といった既存の手段には、深刻な欠陥が存在する。

本誌のメリッサ・ヘイッキラ記者が書いているように、既存の技術的解決策の大半は「最新世代のAI言語モデルにはまったく歯が立たない」のだ。とは言え、AI生成コンテンツのラベル付けと検知を巡る戦いは始まっている。

そこで登場したのが、2021年に立ち上がったC2PA(このプロトコルを開発した「Coalition for Content Provenance and Authenticity:コンテンツの来歴と真正性のための連合」にちなんで名付けられた)である。このプロトコルは、出所を明確にする情報を記録したラベルをコンテンツに確実に付与するための一連の新たな技術標準と、自由に利用可能なコードを指す。

具体的には、最初に作られた機器(スマートフォンのカメラなど)、編集を加えたツール(フォトショップなど)、最終的にはそれが投稿されたソーシャルメディア・プラットフォームの情報が、画像に記録されることを意味する。 時と共にその情報がある種の歴史を作り出し、そのすべてが記録されていく。

C2PAそのもの、そしてC2PAがほかのAIラベリング手法に比べて安全性に優れる手法であるという点はとてもすばらしいが、やや複雑なところもある。記事ではその点を掘り下げているが、C2PAは栄養成分表示ラベルのようなものだと考えるのが最も分かりやすいだろう。その一例として、C2PA創設メンバーの1社であるトゥルーピック(Truepic)が、オランダのレヴェルAI(Revel AI)と協力してラベル付けしたディープフェイク動画がこれだ

「相互運用可能で、なおかつ改ざんの痕跡がひと目で分かるような形でラベルを付けるというのが、C2PAが付加する『来歴(Provenance)』に関する考え方です。これによってコンテンツは透明性を伴って、いわば栄養成分表示ラベルが付いた状態でインターネット上に流通することになります」。トゥルーピックの広報担当副社長を務めるムーニア・イブラヒムは話す。

創設当時のC2PAを支援していたのは、アドビやマイクロソフトといった一握りの有名企業だけだったが、この6カ月間でメンバー数は56%増加した。7月25日には、メディア・プラットフォーム大手のシャッターストック(Shutterstock)が、同社のAI生成メディアのすべてにC2PAを利用してラベルを付けると発表した。

C2PAによるラベル付けは任意であり、新聞や広告主といったグループがコンテンツの出所の証明や開示を望むときに、C2PAの認証をコンテンツに追加することを選択する形になる。

アドビのコンテンツ認証イニシアチブ統括部長であり、C2PAでプロジェクト・リーダーを務めるアンディ・パーソンズは、C2PAに関する最近の関心と切迫感の高まりは、生成AIの急増と、新たな次元での透明性確保を義務付ける法律の制定が米国とEU(欧州連合)で見込まれていることに起因すると考えている。

ビジョンは壮大だ。C2PAの関係者も、全世界的にとは言わないまでも、採用例が増えていくかどうかに真の成功がかかっていると認める。 彼らはすべての主要コンテンツ企業がこの規格を採用することを願っている。

そのためには使いやすさが鍵だとトゥルーピックのイブラヒム副社長は語る。「SSL暗号化と同じように、インターネット上のどこにあっても同じ形で読み込みと取り込みができるようにしたいところです。オンラインでより透明なエコシステムを拡大していくには、そのような方法が求められます」。

これから米国は大統領選挙シーズンに突入し、AIによって生成された誤情報へ目が向けられることになる。その中でC2PAが極めて重大な進歩になるかもしれない。 C2PAプロジェクトの研究者らは、AI生成によるデマが大量に到来する前に新機能の公開を急ぎたい考えで、ソーシャルメディアにC2PAを採用するよう働きかけていると話す。

現状のC2PAは、主に画像と動画に対して機能するものだが、文字コンテンツにも対応できるよう取り組んでいるとメンバーは話す。C2PAの他の欠点については記事で掘り下げているが、特に理解すべき重要な点は、コンテンツ生成にAIを使っていることが開示されていたとしても、機械が生成したデマによる被害は食い止められないかもしれないことだ。 依然としてソーシャルメディアはその情報をサイト上に残しておくかどうかを決める必要があり、ユーザーはそのコンテンツを信頼しシェアするかどうかを自分で決めなければならない。

C2PAは、この数年の間に複数のテック企業が取り組んできた、デマへのラベル付けを思い起こさせる。メタ(フェイスブック)は2020年の大統領選挙に先駆けてデマの1億8000万件以上の投稿に、デマであることを示すラベルを付けたが、それでも大量の問題が残ったのは明らかだった。C2PAには投稿に対して正確さの指標を付与する意図はないようだが、コンテンツに関するより多くの情報を提供するだけでは、必ずしも私たちが自身から身を守ることはできないのは明らかだ。

テック政策関連の気になるニュース

テック政策関連の注目研究

研究者は依然として、ソーシャルメディア・プラットフォームとそのアルゴリズムが、どのように私たちの政治理念と民間の議論に影響を与えているのかを整理しようとしている。7月末に、2020年の大統領選挙期間中のフェイスブックとインスタグラムのユーザーへの政治的影響に関する4つの新たな研究成果が発表され、その影響は非常に複雑なものであることが明らかになった。テキサス大学、ニューヨーク大学、プリンストン大学、その他研究機関が発表した研究によると、ユーザーが各プラットフォームで読んでいるニュースは政治的見解によって強い分断が見られた一方、フェイスブックのフィードから再共有されたコンテンツを削除しても政治理念に変化はなかったことが明らかになった。

その規模の大きさから、上記4件の研究成果は学界で大きな話題になったが、メタとの密接な協力があったことから、この研究には厳しい目も向けられている