フラッシュ2023年9月21日
- 人工知能(AI)
深層学習にゆらぎを導入、敵対的攻撃に強いAIを構築=東大
by MITテクノロジーレビュー編集部 [MIT Technology Review Japan]東京大学の研究チームは、深層学習を実行するニューラルネットワークに脳の神経細胞を模したゆらぎを導入することで、同ニューラルネットワークが持つ脆弱性の一部が軽減できることを明らかにした。
深層ニューラルネットワークは、敵対的攻撃と呼ばれる悪意のある攻撃によって騙されてしまうことが知られている。例えば、敵対的攻撃の手法で生成された「止まれ」の道路標識は、人間が見ると明らかに「止まれ」の標識であっても、人工知能(AI)は正しく認識できない場合がある。こうした脆弱性は、AIを社会実装する際に大きな障壁となる。
本研究チームはまず、敵対的攻撃を実行する新しい手法を考案し、敵対的サンプルの画像を生成。その後、深層ニューラルネットワークの入力層、隠れ層の2通りの箇所にそれぞれゆらぎを導入し、敵対的サンプルが正しいカテゴリーに分類されるか、もしくは敵対的サンプルと同じく誤って分類されるかどうかを調べた。
その結果、入力層にゆらぎを導入した時よりも、後段の隠れ層にゆらぎを導入した時の方がはるかに、敵対的サンプルが正しいカテゴリーに分類される割合が増えることが判明。入力層ではなく隠れ層にゆらぎを導入することで、今回の敵対的攻撃に対する脆弱性を軽減できることがわかった。
同チームによると、この方法を用いることで、人間などの動物の振る舞いにより近いAIが作成できる可能性が高くなるという。研究論文は、ニューラル・ネットワーク(Neural Networks)誌オンライン版に、2023年9月15日に掲載された。
(中條)
- 人気の記事ランキング
- The Biggest Questions: Are we alone in the universe? 地球外生命体は存在するか? 人類の先入観を超えた探索
- Huawei’s 5G chip breakthrough needs a reality check 中国テック事情:ファーウェイ「独自チップ」衝撃も厳しい現実
- Exclusive: Ilya Sutskever, OpenAI’s chief scientist, on his hopes and fears for the future of AI 独占:アルトマン解任前夜、 渦中の人物が語っていた 人工超知能への期待と恐怖
- Covid hasn’t entirely gone away—here’s where we stand 新型コロナはもう「終わった」のか? 現状を整理する