KADOKAWA Technology Review
×
【4/24開催】生成AIで自動運転はどう変わるか?イベント参加受付中
ディープフェイク・ツールの
「正しい」作り方
Facebook
人工知能(AI) 無料会員限定
Making deepfake tools doesn’t have to be irresponsible. Here’s how.

ディープフェイク・ツールの
「正しい」作り方

画像や音声を作り出す合成メディア技術の進化に伴い、「ディープフェイク」が社会問題化しつつある。未来に貢献するテクノロジーにするには、悪用を防ぐための「努力」が必要だ。 by Aviv Ovadya2020.01.28

一般的にディープフェイクで知られている合成メディア技術は、ポジティブな影響を与えることもある。たとえば、音声合成を使えば自分の声でさまざまな言語を話すことができるし、映像合成は自動運転自動車が将来の判断ミスを回避するための事故シミュレーションに活用できる。テキスト合成はプログラムと文章を書く能力を加速するのに使われる。

だが、こうした進歩は、私たちが注意を怠れば多大な犠牲や損失を引き起こす可能性がある。根本にあるテクノロジーは、世界規模の分断を引き起こす、詐欺の手段にも使えるものだからだ。

ありがたいことに、合成メディア技術の恩恵を受けながら、その危険性を緩和する方法がある。ただし、ちょっとした努力は必要だ。

この記事での私の主張は、合成メディア技術の危険性を緩和する努力をしていこうという呼びかけだ。合成メディア技術を作り出している画期的な研究や新製品開発に携わる人たち、趣味でオープンソースのシステムを開発している人たちを支援するための手引きでもある。これには、研究に資金を提供する人たち、テクノロジーがもたらす影響を開発者が自覚する助けとなるジャーナリスト、そして開発者の友人や家族も含まれる。

「悪用されてしまえば、なすすべはない」というのは責任逃れだ。実際にはできることはあるのに、多くの場合は気にしていないだけだからだ。「こうしたテクノロジーは自分が作らなくてもいずれは作られる」という意見も完全な間違いではないが、それでもいつ、どのようにして作られるかは重要だし、その選択次第で悪用を避けることはできる(脅威モデリングを含めた詳細を知りたい人は私たちが書いた論文の全文を参照してほしい)。「悪用する人は必ずいる」という使い古された文言を盾に、犠牲や損失の程度と影響を無視することもできない。

ディープフェイク技術による犠牲や損失は理論上のものではない。現に顔を入れ替えた合成動画によってジャーナリストが追い込まれ沈黙している。合成音声は大規模な不正行為に使われているし、顔の合成は諜報活動に使われている疑惑がある。ベータ版品質のお粗末なツールしかない現時点でも、これだけの課題がある。合成メディアを使うハードルは高く、危険性の高い人物や組織の目を惹くにはまだ至っていない。だが、バグだらけのベータ版品質から脱して使いやすくなったツールが多くの人の手に渡ったとき、私たちは最悪といえるシナリオを回避する責任を負うことになる。そのためには、ディープフェイクの悪用をできる限り難しくしなければならない。どうすればよいのだろうか?

アプローチ1:ツールの使用者や用途を限定する

悪用される可能性を少なくするために、できる …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る