KADOKAWA Technology Review
×
「ディープヌード」騒動、拡大するAIコラ画像問題の根深さ
Ms. Tech/ Original image: Getty
An AI app that “undressed” women shows how deepfakes harm the most vulnerable

「ディープヌード」騒動、拡大するAIコラ画像問題の根深さ

人工知能(AI)技術を使って女性の画像からヌード画像を作成するアプリケーション「ディープヌード」はすぐに削除された。だが、弱い立場にある人々を標的にした嫌がらせは、今後ますます増えていくだろう。 by Karen Hao2019.07.03

ここ数カ月の間に、ディープフェイクと合成メディアに関する注目がにわかに高まってきている。しかし、その議論の焦点は主に政治に及ぼす潜在的影響に当てられており、基本的人権やテクノロジー倫理の専門家らは、別の潜在的リスクが見過ごされていると警告する。つまり、ディープフェイク技術の標的とされ、しかも身を守る術を持たない女性や、その他の弱い立場にある集団に与えかねない破滅的な影響についてだ。

ディープフェイクを利用した最新の実験的試みである「ディープヌード(DeepNude)」という、女性の画像から服を脱がせるアプリによって、こうした忌まわしい悪影響が現実化している。デジタルメディア「バイス(Vice)」の6月27日の記事によると、ディープヌードは敵対的生成ネットワーク(GAN)を用い、女性の身に着けている衣服を、極めてリアリティの高い裸体に取り替えていた。バイスの記事により同アプリに対する反発が瞬く間に広がり、結局、ディープヌードの開発者はアプリを削除した。

「ディープフェイクは女性を傷つける武器になり得るツールです。そのおぞましさにおいてディープヌードは最たるものです」と話すのは、非営利組織データ&ソサエティ研究所(Data & Society Research)のムタレ・ンコンデ研究員だ。ンコンデ研究員は、イベット・クラーク下院議員が議会に提出したディープフェイク関連法案に対しても助言している。法案は、悪意あるディープフェイクによって被害を受けた人たちが、風評被害に対する法的措置を求める仕組みを整備するという内容である。

ディープヌードは、明確に女性をターゲットにしていた。バイスの調べでは、このソフトウェアは、男性の画像を使った場合でさえ、女性の体だけを生成していたという。ディープヌードの匿名開発者は、GANアルゴリズムを女性の裸体写真だけを使って訓練していたことを認めた(今回のケースでは1万人以上の裸体写真)。その理由はネット上で見つけるのがより簡単だったからであり、最終的には男性版も作るつもりだったという。

今回のディープフェイクは、アルゴリズムによって完全に合成されたものであり、女性の実際の体を描写したわけではない。しかしながら、そうして作られた画像が被害者の感情や、評判についての重大な損害を引き起こす可能性があった。画像は簡単に本物だと誤解させることができるため、リベンジポルノや女性を黙らせるための強引なツールとして使われるかもしれない。こうした問題は実際、すでに起こっている。インドのある女性ジャーナリストは、政府の腐敗を暴露し始めた直後に、自分の顔が合成されたポルノ動画を作られた。この動画はすぐに拡散され、悪質な嫌がらせやレイプをほのめかす脅迫に晒され、ジャーナリストは数カ月間、インターネットから離れざるを得なかった。

ディープフェイクは何も新しい脅威というわけではない。画像や映像は、人工知能(AI)が生まれるずっと前から加工されている。しかし、AIにより、こうした傾向に拍車がかかり、影響が拡大している。こう語るのは、非営利人権擁護団体「ウィットネス(Witness)」のプログラム・ディレクターであるサム・グレゴリーだ。AIのアルゴリズムによって、はるかに多くの人々が、はるかに容易に、これまでにないほど本物に近いフェイクメディアを作成できるようになった。そのため、ジャーナリストを攻撃したり、汚職をほのめかしたり、証拠の真正性を曖昧にしたりといった、人々が過去に画像や映像を加工して実施していたあらゆることが、今後ますますありふれたものになり、見分けるのが極めて困難になるだろう。

ディープヌードもまったく同じだとグレゴリーは言う。女性に対する画像を利用した性的虐待は、以前から問題として存在していた。現在、ディープフェイクが火に油を注いでいる状況だ。

ンコンデ研究員は、ディープフェイクの犠牲になり得る弱いターゲットが女性だけではない点を懸念している。ネット上で最も過酷な嫌がらせのターゲットになるマイノリティやLGBTQの人々といった集団も同様に、別の形であれ、ディープフェイクの犠牲者になりそうだという。例えば2016年の米大統領選時にはロシアのスパイが、フェイスブック上の偽情報キャンペーンの一環として、偽のアフリカ系米国人とそれに関連する画像を用いて、米国内の人種間の緊張を高めようとした。

「これは有権者を抑圧する新たな手法として、インターネット上で人々の身元を悪用して実施されました」(ンコンデ研究員)。ディープフェイク技術は、悪意のある者が、コミュニティを混乱させたり、危害を与えたりするつもりのない人間を装うのにうってつけの新たな手段となるだろう。

では、どうすればよいのか? ンコンデ研究員とグレゴリーは過去に、MITテクノロジーレビューに対し、似たような提案を語ってくれている。それは、ディープフェイクを可能とするツールを製作する企業や研究者は、対抗策にも投資しなければならないというものだ。そして、ソーシャルメディアと検索会社は、その対抗策を自社のプラットフォームに直接統合すべきである。ンコンデ研究員は、規制当局にも迅速な行動を促す。「政府が消費者の権利を保護する方法を見つけない限り、こうしたアプリは急増していくでしょう」。

「テクノロジーは決して中立ではありません。ディープヌードは善悪の両面で使われるものではありません。悪意ある目的に使われるだけであり、非道徳的な開発行為の成果物です。私たちは、画像や映像を生成するツールを開発し、共有する際の倫理に対して真剣に取り組み、そのことを繰り返し呼びかけていく必要があります」(グレゴリー)。

人気の記事ランキング
  1. AI companions are the final stage of digital addiction, and lawmakers are taking aim SNS超える中毒性、「AIコンパニオン」に安全対策求める声
  2. Here’s why we need to start thinking of AI as “normal” AIは「普通」の技術、プリンストン大のつまらない提言の背景
カーレン・ハオ [Karen Hao]米国版 寄稿者
受賞歴のあるフリー・ジャーナリスト。人工知能が社会に与える影響について取材している。ウォール・ストリート・ジャーナル紙の海外特派員として中国のテクノロジー業界を担当。2022年4月まではMITテクノロジーレビューのAI担当上級編集者を務めた。
MITTRが選んだ 世界を変える10大技術 2025年版

本当に長期的に重要となるものは何か?これは、毎年このリストを作成する際に私たちが取り組む問いである。未来を完全に見通すことはできないが、これらの技術が今後何十年にもわたって世界に大きな影響を与えると私たちは予測している。

特集ページへ
日本発「世界を変える」U35イノベーター

MITテクノロジーレビューが20年以上にわたって開催しているグローバル・アワード「Innovators Under 35 」。世界的な課題解決に取り組み、向こう数十年間の未来を形作る若きイノベーターの発掘を目的とするアワードの日本版の最新情報を発信する。

特集ページへ
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る