KADOKAWA Technology Review
×
【4/24開催】生成AIで自動運転はどう変わるか?イベント参加受付中

ニューズラインエマージング・テクノロジーの最新情報をお届け。

ステッカーで対向車線に誘導、テスラの自動運転機能に脆弱性
The Tesla Model S used by the Tencent Keen Security Labs researchers.
Hackers trick a Tesla into veering into the wrong lane

ステッカーで対向車線に誘導、テスラの自動運転機能に脆弱性

テスラ・モデルS(Tesla model S)の各種システムを操作し、混乱させる厄介な方法がハッカーによって公表された。もっとも衝撃的な方法は、道路に一連の小さなステッカーを置くことで、クルマを反対車線に誘導することだ。

これは「敵対的攻撃(adversarial attack)」の一例で、特別に細工した入力情報を与えることで、機械学習モデルを操る方法の1つである。敵対的攻撃は、機械学習が普及するにつれてますます一般的になってきており、特にネットワーク・セキュリティなどの分野で顕著だ。

テスラのオートパイロット機能は、コンピューター・ビジョンを利用して車線を認識しており、攻撃に対して脆弱だ。言い換えると、テスラのシステムはニューラル・ネットワークで分析されたカメラのデータを利用して、車線内の中央に車を保つ方法を指示している。

自動運転システムに対する敵対的攻撃はこれが始めてではない。カリフォルニア大学バークレー校のドーン・ソング教授は、一見問題のないステッカーを使用して自動運転自動車を欺き、一時停止標識を制限時速72キロメートルだと認識させたことがある。3月に発表された別の研究では、医療用の機械学習システムが同様の方法で欺かれ、誤った診断を示す可能性を指摘されている。

中国の巨大テック企業であるテンセント(Tencent)のキーン・セキュリティ・ラボ(Keen Security Lab)の研究者は、同様の攻撃を利用して自動車の自動ワイパーを停止させたほか、別の手法を使ってハンドルの乗っ取りにも成功している。テスラの広報担当はフォーブス誌に対して、ワイパーやハンドルの脆弱性に関しては直近のソフトウェア・アップデートで修正されていると説明している。また「運転者はいつでも簡単にオートパイロットを無効にできる」ため、敵対的攻撃は非現実的であるとも述べている。

カーレン・ハオ [Karen Hao] 2019.04.04, 9:27
10 Breakthrough Technologies 2024

MITテクノロジーレビューは毎年、世界に真のインパクトを与える有望なテクノロジーを探している。本誌がいま最も重要だと考える進歩を紹介しよう。

記事一覧を見る
MITテクノロジーレビューは有料会員制サイトです
有料会員になると、毎月150本以上更新されるオリジナル記事が読み放題!
【春割】実施中! ひと月あたり1,000円で読み放題
フォローしてください重要なテクノロジーとイノベーションのニュースをSNSやメールで受け取る