生成AIで増殖する「コンテンツファーム2.0」の新たな波
ビジネス・インパクト

Next-gen content farms are using AI-generated text to spin up junk websites 生成AIで増殖する「コンテンツファーム2.0」の新たな波

広告マネー目当てに、生成AIを使って作られた「信頼できない」サイトがいくつも立ち上げられているという。ある調査によると、140以上の大手ブランドがそうとは知らずに広告を掲載し、コンテンツファームに資金を提供している。 by Tate Ryan-Mosley2023.07.05

この記事は米国版ニュースレターを一部再編集したものです。

チャットGPT(ChatGPT)をはじめとする大規模言語モデルの時代における人工知能(AI)のリスクについて、私たちは多くのことを耳にしてきた(私もそのことについて語ってきた一人だ)。そのリスクとは、誤情報やデマの氾濫、プライバシーの侵害などを指す。2023年4月、本誌のメリッサ・ヘイッキラ記者は、スパムや詐欺と共にこうした新しいAIモデルがインターネット上に溢れ返るだろうと予測した。6月に掲載した「生成AIで広告収入目的のゴミサイトが急増、1日1200本更新も」という記事では、新たな波はすでに到来しており、その動機づけとなっているのは広告マネーだということについて解説した。

MITテクノロジーレビューが独占提供を受けたニュースガード(NewsGuard)の新たな報告書によると、人々はオンラインにだぶついているプログラマティック(データに基づく自動取引)広告の金を手にするために、AIを用いてすばやくジャンクサイトを立ち上げているという。つまり優良広告主や大手ブランドは、おそらくはそうとは知らずに、新たに相次いで誕生しているコンテンツファームに実質的に資金を与えている。

Webサイトの質を評価しているニュースガードは、「信頼できない」とみなされるAI生成テキストを用いたサイトに、140以上の大手ブランドが広告を掲載していることを発見した。広告の中には、世界有数の認知度を誇る企業のものも含まれていた。こうした大手ブランドの広告の90%は、グーグルの広告テクノロジー経由で提供されたものだった。グーグルは自社ポリシーとして、「スパムに類する自動生成コンテンツ」を含むページにグーグル配信の広告の設置を禁じているにもかかわらずである。

ジャンクサイト運営者の策略がうまくいくのは、プログラマティック広告では人間の監視無しで、企業がインターネット上で広告スポットを購入するからだ。アルゴリズムがプレースメント(広告を表示する場所)の入札をして、その広告を見る可能性が高そうな、関連性のあるWebページ訪問者の数を最適化する。生成AI(ジェネレーティブAI)の登場以前から、約21%の広告インプレッションが「広告のために作られた(MFAと呼ばれる)」ジャンクサイト上で発生し、年間約130億ドルが無駄になってきた。

現在では、生成AIを使って広告収入をもたらすジャンクサイトが作られている。 ニュースガードは2023年4月から200以上の「信頼できないAI生成のニュースおよび情報サイト」を追跡しており、その大半は(多くの場合一流企業からの)広告マネーによる収益を目的にしているようだとしている。

ニュースガードはAIを用いて、こうしたWebサイトにチャットGPTなどの大規模言語モデルの標準的なエラーメッセージと一致するテキストが含まれているかどうかをチェックし、警告が出たサイトを人間の研究者がレビューしている。

こうしたWebサイトの大半は制作者が完全に匿名であり、AIが生成した偽の制作者プロフィールや写真を掲載しているサイトまで存在する。

ニュースガードの研究者であるレンゾ・アルバニティスが私に語ったように、インターネットではよくある話の1つにすぎない。まったく悪気のない企業がネットユーザーの関心を引くための競争に熱心になりすぎるあまり、ジャンクな、場合によって、不正確だったり、誤解を招くものだったり、偽物だったりするコンテンツに金を出す羽目になることは度々起こっている(これについては、以前本誌が掲載した良い記事がある)。

ここで重要なのは、生成AIがこの策略を大きく後押しするために利用されているということだ。この現象は、「こうした言語モデルがより高度になり、利用しやすくなるにつれて、さらにまん延することになります」とアルバニティスは言う。

生成AIがデマ活動をする悪意を持った人間たちに利用されることは予想できる。だが、ドラマ性は低いが、起こりうる可能性は高いであろう生成AIの影響を見過ごしてはならない。つまり莫大な量の金とリソースが無駄になっているということだ。

テック政策関連の気になるニュース

米国議会で上院院内総務を務めるチャック・シューマー上院議員は、6月21日のスピーチでAI規制プランを明らかにし、イノベーションは法案の「軸となる目標」であるべきだと述べた。 バイデン大統領は6月20日にサンフランシスコで数人のAI専門家と会談しており、こちらも規制に関する動きが間近に迫っている可能性があることを示唆している(私は期待していないが)。

ニューヨーク・タイムズ紙のすばらしい概説記事によると、政治活動に生成AIが利用されているという。同紙は、デマに関する警鐘を鳴らしている。 「政治の専門家らは、AIが悪用された場合、民主的プロセスが蝕まれる可能性があると懸念しています」と、ティファニー・スー記者とスティーブン・リー・マイヤーズ記者は書いている。

メタの監視委員会(同社のコンテンツモデレーションの課題に関連する決定を下す組織)は6月13日に、戦争に関するコンテンツに対する同社のモデレーションの方法について拘束力のある勧告を出した。 メタはコンテンツが放置または削除された理由について追加情報を提供し、人権侵害を立証するものはすべて保存しなければならなくなる。 メタは場合に応じて、当局と証拠書類を共有しなければならない。カリフォルニア大学バークレー校人権センター事務局長のアレクサ・ケーニッヒ博士は、テック・ポリシー・プレス(Tech Policy Press)に寄稿した鋭い分析記事で、なぜこれが実際に大きな取り決めなのかを説明している

テック政策関連の注目研究

10代の若者にとってのソーシャルメディアと精神的健康(メンタルヘルス)の関係についての科学は、依然として非常に複雑だ。数週間前、アトランティック誌(Atlantic)のケイトリン・ティファニーは非常に詳細な特集記事で、この分野における既存の、場合によっては矛盾する研究について概説している。メンタルヘルスの問題を抱える米国の10代の若者たちが急増しているのは確かであり、ソーシャルメディアが危機の要因とみなされることが多い。

だが科学は私たちが望むほど明確でも啓蒙的でもなく、ソーシャルメディアがいつどのように害をもたらしているのかについての研究において、まだはっきりと確立された答えはない。ティファニーは次のように書いている。「10年間の取り組みと数百の研究からはさまざまな結果が出ています。その理由の1つはさまざまな手法を組み合わせて使っているからであり、1つは捉えどころがなく複雑な何かを得ようとしているからです」。重要なのは、ソーシャルメディアの影響は、それを利用する人に大きく依存しているように思われることであるという。