人間をだませる画像はAIもだませる、イアン・グッドフェローら

Human brains can be hacked like computers with adversarial examples 人間をだませる画像はAIもだませる、イアン・グッドフェローら

操作された写真にだまされるのは、コンピューター・ビジョン・アルゴリズムだけではない。 by Jackie Snow2018.03.02

操作された写真にだまされるのは、コンピューター・ビジョン・アルゴリズムだけではない。

研究者は人工知能(AI)を使って、人間とコンピューター・ビジョン・アルゴリズムの両方をだます写真を初めてデザインした(冒頭の画像を参照)。変更を加えていない猫の画像の隣りにあるのが、奇妙な犬のように見える微調整された画像である。

人間の弱点を発見することは、AIシステムの改善につながる。敵対的生成ネットワーク(GANs:generative adversarial network)を発表したイアン・グッドフェローが共著の研究論文で、これらの操作された写真について説明している。研究者は、もし人間の思考を惑わすことができない類の操作された画像を発見できれば、機械学習に「似たようなメカニズム」が存在しうると指摘している。結局、ほとんどのAIシステムは不確実ではあるが人間の脳に基づいているからだ。

対象物に対象とはまったく異なる図柄が入ったシールのようなものを貼れば、コンピューター・ビジョン・システムを混乱させられる。いわゆる「対立する2つの画像」は現実世界の問題だ。すべての停止標識をシステムで確実に認識できる方法がなければ、近い将来、自律型移動手段が道路を走行するのは難しいだろう。