「ディープヌード」騒動、拡大するAIコラ画像問題の根深さ
知性を宿す機械

An AI app that “undressed” women shows how deepfakes harm the most vulnerable 「ディープヌード」騒動、拡大するAIコラ画像問題の根深さ

人工知能(AI)技術を使って女性の画像からヌード画像を作成するアプリケーション「ディープヌード」はすぐに削除された。だが、弱い立場にある人々を標的にした嫌がらせは、今後ますます増えていくだろう。 by Karen Hao2019.07.03

ここ数カ月の間に、ディープフェイクと合成メディアに関する注目がにわかに高まってきている。しかし、その議論の焦点は主に政治に及ぼす潜在的影響に当てられており、基本的人権やテクノロジー倫理の専門家らは、別の潜在的リスクが見過ごされていると警告する。つまり、ディープフェイク技術の標的とされ、しかも身を守る術を持たない女性や、その他の弱い立場にある集団に与えかねない破滅的な影響についてだ。

ディープフェイクを利用した最新の実験的試みである「ディープヌード(DeepNude)」という、女性の画像から服を脱がせるアプリによって、こうした忌まわしい悪影響が現実化している。デジタルメディア「バイス(Vice)」の6月27日の記事によると、ディープヌードは敵対的生成ネットワーク(GAN)を用い、女性の身に着けている衣服を、極めてリアリティの高い裸体に取り替えていた。バイスの記事により同アプリに対する反発が瞬く間に広がり、結局、ディープヌードの開発者はアプリを削除した。

「ディープフェイクは女性を傷つける武器になり得るツールです。そのおぞましさにおいてディープヌードは最たるものです」と話すのは、非営利組織データ&ソサエティ研究所(Data & Society Research)のムタレ・ンコンデ研究員だ。ンコンデ研究員は、イベット・クラーク下院議員が議会に提出したディープフェイク関連法案に対しても助言している。法案は、悪意あるディープフェイクによって被害を受けた人たちが、風評被害に対する法的措置を求める仕組みを整備するという内容である。

ディープヌードは、明確に女性をターゲットにしていた。バイスの調べでは、このソフトウェアは、男性の画像を使った場合でさえ、女性の体だけを生成していたという。ディープヌードの匿名開発者は、GANアルゴリズムを女性の裸体写真だけを使って訓練していたことを認めた(今回のケースでは1万人以上の裸体写真)。その理由はネット上で見つけるのがより簡単だったからであり、最終的には男性版も作るつもりだったという。

今回のディープフェイクは、アルゴリズムによって完全に合成されたものであり、女性の実際の体を描写したわけではない。しかしながら、そうして作られた画像が被害者の感情や、評判についての重大な損害を引き起こす可能性があった。画像は簡単に本物だと誤解させることができるため、リベンジポルノや女性を黙らせるための強引なツールとして使われるかもしれない。こうした問題は実際、すでに起こっている。インドのある女性ジャーナリストは、政府の腐敗を暴露し始めた直後に、自分の顔が合成されたポルノ動画を作られた。この動画はすぐに拡散され、悪質な嫌がらせやレイプをほのめかす脅迫に晒され、ジャーナリストは数カ月間、インターネットから離れざるを得なかった。

ディープフェイクは何も新しい脅威というわけではない。画像や映像は、人工知能(AI)が生まれるずっと前から加工されている。しかし、AIにより、こうした傾向に拍車がかかり、影響が拡大している。こう語るのは、非営利人権擁護団体「ウィットネス(Witness)」のプログラム・ディレクターであるサム・グレゴリーだ。AIのアルゴリズムによって、はるかに多くの人々が、はるかに容易に、これまでにないほど本物に近いフェイクメディアを作成できるようになった。そのため、ジャーナリストを攻撃したり、汚職をほのめかしたり、証拠の真正性を曖昧にしたりといった、人々が過去に画像や映像を加工して実施していたあらゆることが、今後ますますありふれたものになり、見分けるのが極めて困難になるだろう。

ディープヌードもまったく同じだとグレゴリーは言う。女性に対する画像を利用した性的虐待は、以前から問題として存在していた。現在、ディープフェイクが火に油を注いでいる状況だ。

ンコンデ研究員は、ディープフェイクの犠牲になり得る弱いターゲットが女性だけではない点を懸念している。ネット上で最も過酷な嫌がらせのターゲットになるマイノリティやLGBTQの人々といった集団も同様に、別の形であれ、ディープフェイクの犠牲者になりそうだという。例えば2016年の米大統領選時にはロシアのスパイが、フェイスブック上の偽情報キャンペーンの一環として、偽のアフリカ系米国人とそれに関連する画像を用いて、米国内の人種間の緊張を高めようとした。

「これは有権者を抑圧する新たな手法として、インターネット上で人々の身元を悪用して実施されました」(ンコンデ研究員)。ディープフェイク技術は、悪意のある者が、コミュニティを混乱させたり、危害を与えたりするつもりのない人間を装うのにうってつけの新たな手段となるだろう。

では、どうすればよいのか? ンコンデ研究員とグレゴリーは過去に、MITテクノロジーレビューに対し、似たような提案を語ってくれている。それは、ディープフェイクを可能とするツールを製作する企業や研究者は、対抗策にも投資しなければならないというものだ。そして、ソーシャルメディアと検索会社は、その対抗策を自社のプラットフォームに直接統合すべきである。ンコンデ研究員は、規制当局にも迅速な行動を促す。「政府が消費者の権利を保護する方法を見つけない限り、こうしたアプリは急増していくでしょう」。

「テクノロジーは決して中立ではありません。ディープヌードは善悪の両面で使われるものではありません。悪意ある目的に使われるだけであり、非道徳的な開発行為の成果物です。私たちは、画像や映像を生成するツールを開発し、共有する際の倫理に対して真剣に取り組み、そのことを繰り返し呼びかけていく必要があります」(グレゴリー)。