人工知能(AI)は画像に含まれる物体を認識するのに優れているが、その能力を台無しにさせるのもまた容易だ。人間の目には見えない静的ノイズの中に線や塗りをちょっと加えるだけで、画像認識システムを困らせることができてしまう。ときにはそれが致命的な影響を与えることもある。たとえば、一時停止の標識にステッカーを貼り付けことで、自動運転自動車に「制限時速70キロ」と誤認させられる。ステッカーを道路に貼り付ければ、テスラの自動運転自動車を対向車線へ誘導もできる(同じ技術で監視国家から人々の保護もできるので、いい面も悪い面もある)。
これらは「敵対的サンプル(adversarial examples)」と呼ばれ、研究者らは現在、AIシステムを敵対的サンプルから守る方法を開発しようと争って研究を重ねている。だが、この分野における最初期からの研究者の1人であるイアン・グッドフェロー博士と、グーグル・ブレイン(Google Brain)、プリンストン大学の研究者グループは昨年のある論文で、最近の研究成果はあまりに理論に偏っており、要点を外していると主張した …
- 人気の記事ランキング
-
- Stratospheric internet could finally start taking off this year グーグルもメタも失敗した 「成層圏ネット」再挑戦、 2026年に日本で実証実験
- Promotion Emerging Technology Nite #36 Special 【3/9開催】2026年版「新規事業の発想と作り方」開催のお知らせ
- The first human test of a rejuvenation method will begin “shortly” ハーバード大教授主導の 「若返り治療」初の試験へ、 イーロン・マスクも関心
- Microbes could extract the metal needed for cleantech 微生物で「老朽鉱山」再生、バイオマイニングは金属需要に間に合うか
- What’s next for EV batteries in 2026 米国後退、加速する中国支配 EVバッテリー市場、 2026年はどう動く?
