KADOKAWA Technology Review
×
【4/24開催】生成AIで自動運転はどう変わるか?イベント参加受付中
AI顔認識ツールからあなたの「自撮り」写真を守る方法
Ms Tech | Unsplash
人工知能(AI) 無料会員限定
How to stop AI from recognizing your face in selfies

AI顔認識ツールからあなたの「自撮り」写真を守る方法

顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。 by Will Douglas Heaven2021.05.11

個人的な写真をインターネットにアップロードすると、何かを手放した気分になる。ほかの誰がその写真にアクセスするのだろうか。彼らはその写真で何をするのだろうか。そして、どの機械学習アルゴリズムの訓練に利用されるのだろうか。

すでに「クリアビュー(Clearview)」は、Web上から収集した何百万人もの人々の写真で訓練した顔認識ツールを、米国の司法当局に提供している。しかし、それはほんの始まりに過ぎなかったようだ。今や、基本的なプログラミングスキルを持っている人なら誰でも、顔認識ソフトウェアを開発できるようになった。つまり、セクシャル・ハラスメントや人種差別から、政治的弾圧や宗教的迫害に至るまで、あらゆることに顔認識テクノロジーが悪用される可能性があり、その可能性はかつてないほど高まっているわけだ。

多くの人工知能(AI)研究者らがこうした流れに抵抗し、AIの学習に個人的なデータが使われないようにする手法を開発している。5月3~7日に開催された著名なAIカンファレンスである「表現学習国際学会(ICLR:International Conference on Learning Representations)」では、そうした最新の手法が2つ発表された。

「誰かが、私のものを奪っていくのは嫌なんです。その人が持つべきものじゃないのに」。シカゴ大学の博士課程生であるエミリー・ウェンガーはこう話す。ウェンガーが昨年の夏に仲間とともに開発した「フォークス(Fawkes)」は、AIがWeb上の写真を使って学習するのを妨害する最初期のツールの一つだ。「私たちのほかにも、同時に同じような考えを抱いていた人が大勢いるようです」。

「データ汚染」は新しいものではない。企業が所有している私たちのデータを削除したり、フェイクの事例で意図的にデータセットを汚染したりすることで、企業が機械学習モデルを正確に訓練するのを困難にすることができる。しかし、こうした取り組みが効果をあげるには通常、数百から数千の人が参加する集団行動が必要となる。ウェンガーらの手法が従来の手法を異なるのは、1人の人物の写真に手を加えることだ。

「このテクノロジーは、個人がデータをロックする鍵として使用できます」。オーストラリアのディーキン大学(Deakin University)のダニエル・マー専任講師は説明する。「AI時代の人々のデジタル権を保護する新たな最前線防御なのです」。

丸見えのまま隠れる

フォークスなどのツールが採る基本的なアプローチはどれも同じだ。人間の目では見つけにくいが、AIの判断を誤らせる小さな変 …

こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
有料会員にはメリットがいっぱい!
  1. 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
  2. オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
    重要テーマが押さえられる。
  3. 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
【春割】実施中! ひと月あたり1,000円で読み放題
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
気候テック企業15 2023

MITテクノロジーレビューの「気候テック企業15」は、温室効果ガスの排出量を大幅に削減する、あるいは地球温暖化の脅威に対処できる可能性が高い有望な「気候テック企業」の年次リストである。

記事一覧を見る
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る