AI顔認識ツールからあなたの「自撮り」写真を守る方法
顔認識システムは人々がWebに投稿する写真を大量に収集して、AIモデルの訓練に使用している。個人的な写真が使用されるのを好ましく思わない研究者らは、人間の目にはわからないわずかな変更を画像に加えて、顔認識システムの訓練を阻止するツールを開発している。 by Will Douglas Heaven2021.05.11
個人的な写真をインターネットにアップロードすると、何かを手放した気分になる。ほかの誰がその写真にアクセスするのだろうか。彼らはその写真で何をするのだろうか。そして、どの機械学習アルゴリズムの訓練に利用されるのだろうか。
すでに「クリアビュー(Clearview)」は、Web上から収集した何百万人もの人々の写真で訓練した顔認識ツールを、米国の司法当局に提供している。しかし、それはほんの始まりに過ぎなかったようだ。今や、基本的なプログラミングスキルを持っている人なら誰でも、顔認識ソフトウェアを開発できるようになった。つまり、セクシャル・ハラスメントや人種差別から、政治的弾圧や宗教的迫害に至るまで、あらゆることに顔認識テクノロジーが悪用される可能性があり、その可能性はかつてないほど高まっているわけだ。
多くの人工知能(AI)研究者らがこうした流れに抵抗し、AIの学習に個人的なデータが使われないようにする手法を開発している。5月3~7日に開催された著名なAIカンファレンスである「表現学習国際学会(ICLR:International Conference on Learning Representations)」では、そうした最新の手法が2つ発表された。
「誰かが、私のものを奪っていくのは嫌なんです。その人が持つべきものじゃないのに」。シカゴ大学の博士課程生であるエミリー・ウェンガーはこう話す。ウェンガーが昨年の夏に仲間とともに開発した「フォークス(Fawkes)」は、AIがWeb上の写真を使って学習するのを妨害する最初期のツールの一つだ。「私たちのほかにも、同時に同じような考えを抱いていた人が大勢いるようです」。
「データ汚染」は新しいものではない。企業が所有している私たちのデータを削除したり、フェイクの事例で意図的にデータセットを汚染したりすることで、企業が機械学習モデルを正確に訓練するのを困難にすることができる。しかし、こうした取り組みが効果をあげるには通常、数百から数千の人が参加する集団行動が必要となる。ウェンガーらの手法が従来の手法を異なるのは、1人の人物の写真に手を加えることだ。
「このテクノロジーは、個人がデータをロックする鍵として使用できます」。オーストラリアのディーキン大学(Deakin University)のダニエル・マー専任講師は説明する。「AI時代の人々のデジタル権を保護する新たな最前線防御なのです」。
丸見えのまま隠れる
フォークスなどのツールが採る基本的なアプローチはどれも同じだ。人間の目では見つけにくいが、AIの判断を誤らせる小さな変 …
- 人気の記事ランキング
-
- The winners of Innovators under 35 Japan 2024 have been announced MITTRが選ぶ、 日本発U35イノベーター 2024年版
- Kids are learning how to make their own little language models 作って学ぶ生成AIモデルの仕組み、MITが子ども向け新アプリ
- These companies are creating food out of thin air 大豆・昆虫の次は微生物、 空気からタンパク質を作る 「夢の食品工場」
- The race to find new materials with AI needs more data. Meta is giving massive amounts away for free. メタ、材料科学向けの最大規模のデータセットとAIモデルを無償公開