ディープフェイク・ツールの 「正しい」作り方
コネクティビティ

Making deepfake tools doesn’t have to be irresponsible. Here’s how. ディープフェイク・ツールの
「正しい」作り方

画像や音声を作り出す合成メディア技術の進化に伴い、「ディープフェイク」が社会問題化しつつある。未来に貢献するテクノロジーにするには、悪用を防ぐための「努力」が必要だ。 by Aviv Ovadya2020.01.28

一般的にディープフェイクで知られている合成メディア技術は、ポジティブな影響を与えることもある。たとえば、音声合成を使えば自分の声でさまざまな言語を話すことができるし、映像合成は自動運転自動車が将来の判断ミスを回避するための事故シミュレーションに活用できる。テキスト合成はプログラムと文章を書く能力を加速するのに使われる。

だが、こうした進歩は、私たちが注意を怠れば多大な犠牲や損失を引き起こす可能性がある。根本にあるテクノロジーは、世界規模の分断を引き起こす、詐欺の手段にも使えるものだからだ。

ありがたいことに、合成メディア技術の恩恵を受けながら、その危険性を緩和する方法がある。ただし、ちょっとした努力は必要だ。

この記事での私の主張は、合成メディア技術の危険性を緩和する努力をしていこうという呼びかけだ。合成メディア技術を作り出している画期的な研究や新製品開発に携わる人たち、趣味でオープンソースのシステムを開発している人たちを支援するための手引きでもある。これには、研究に資金を提供する人たち、テクノロジーがもたらす影響を開発者が自覚する助けとなるジャーナリスト、そして開発者の友人や家族も含まれる。

「悪用されてしまえば、なすすべはない」というのは責任逃れだ。実際にはできることはあるのに、多くの場合は気にしていないだけだからだ。「こうしたテクノロジーは自分が作らなくてもいずれは作られる」という意見も完全な間違いではないが、それでもいつ、どのようにして作られるかは重要だし、その選択次第で悪用を避けることはできる(脅威モデリングを含めた詳細を知りたい人は私たちが書いた論文の全文を参照してほしい)。「悪用する人は必ずいる」という使い古された文言を盾に、犠牲や損失の程度と影響を無視することもできない。

ディープフェイク技術による犠牲や損失は理論上のものではない。現に顔を入れ替えた合成動画によってジャーナリストが追い込まれ沈黙している。合成音声は大規模な不正行為に使われているし、顔の合成は諜報活動に使われている疑惑がある。ベータ版品質のお粗末なツールしかない現時点でも、これだけの課題がある。合成メディアを使うハードルは高く、危険性の高い人物や組織の目を惹くにはまだ至っていない。だが、バグだらけのベータ版品質から脱して使いやすくなったツールが多くの人の手に渡ったとき、私たちは最悪といえるシナリオを回避する責任を負うことになる。そのためには、ディープフェイクの悪用をできる限り難しくしなければならない。どうすればよいのだろうか?

アプローチ1:ツールの使用者や用途を限定する

悪用される可能性を少なくするために、できる …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。