自動運転中のテスラ車の事故とイーロン・マスクCEOの主張
知性を宿す機械

Fatal Tesla Autopilot Crash Is a Reminder Autonomous Cars Will Sometimes Screw Up 交通事故削減の責任は
自動車メーカーにあるのか?

自動運転中だったテスラ車の死亡事故は、自動運転車はどれだけ安全であるべきかの疑問を投げかけています by Tom Simonite2016.07.01

米国では年間3万人以上が自動車事故で亡くなる 。この数字は、死亡事故を大幅に減らせるテクノロジーの必要性を説く根拠として、 グーグルやテスラなど、自律運転技術に取り組んでいる企業に好んで引用される。

しかし、仮に自動運転が従来の自動車より何倍も安全になっても、交通事故がゼロになるわけでない。完璧なソフトウェアが存在しない以上、自動運転テクノロジーが成熟するにつれて、規制当局はもちろん、社会全体で、自動運転車にどこまで安全性を求めるか決めなければならない。また、人工知能がどう自動車を制御しても事故が避けられないとき、誰を殺し、誰を活かすかを決定するプログラムが必要であることもすでに議論されている。

車線変更や、高速道路で他社の車のために走行速度を調整するというようなことができる

30日、自動運転モード(車線を変更したり高速道路上でテスラの対応車種同士でスピードを調整したりできる)で走行中のテスラ車が起こした死亡事故について、米国国家道路交通安全局(NHTSA)がテスラを調査中と伝えられたことで、自動運転を巡る難問は、思考実験の段階から具体的な問題になった。

テスラモータース モデル S セダン。

フロリダ州で5月、自動運転中のテスラ モデルSセダンが道路を横切ってトレーラートラックに衝突した 。テスラの自動運転機能もドライバーも、車のブレーキをかけなかった。30日に投稿されたブログで、テスラは 自動運転機能が明るい空に照らされた白いトレーラーの側面を認識しなかったと説明した。

テスラの自動運転機能は、自律的に、自動車を運転し、障害物や車線マーキングを検出して、ブレーキをかける。とはいえ、自動運転は人間のドライバーに比べれば下手くそであり、高解像度センサーは、同様の機能を搭載するグーグルの自律型移動手段プロジェクトの方が熟れていそうだ。

テスラが批判にさらされているのは、「自動運転」(人間の介在が不要に思える言葉だ)の利便性を訴求する一方で、ドライバーは常にソフトウェアから運転を替われるようにしておくこと、という主張は変えなかったからだ。グーグルのクリス・アームソン(自律型移動手段プロジェクト責任者)は、人間は、すぐに自動車任せにしてしまうがゆえに、人間は頼りにならないと、同社の実験で証明したと述べている。だが、テスラのイーロン・マスクCEOはテスラのデータでは自動運転は人間のドライバーの2倍安全であることが示されているとの主張を変えていない。

今のところ、5月の死亡事故の詳細は不明だ。テスラは声明で、自動運転中でもドライバーは自動車の況常を常に把握しておくべきであることをドライバーは知っていたこと強調した。だが、もしNHTSA が自動運転の設計に問題を見つければテスラ車はリコールされうるし、自動運転機能は簡素化されるかもしれない。そうなれば、テスラだけではなく、いま盛り上がっている自動運転テクノロジーの気運に悪影響を与えるだろう。

NHTSAの調査結果に関わらず、今回の件は自動運転ソフトと設計会社の基準を検討するよい機会になる。今後普及が進めば、自動運転といえども事故を起こすのだと皆が気付く。死亡事故も起きるし、自動運転そのものにも問題が見つかるだろう。

人間のドライバーが事故を起こす原因は単純だ。事故の約90%は人間に起因しており、運転中の携帯電話や飲酒運転など、機械よりずっと愚かな間違いで多くの死亡事故が起きている。機械なら、この状況を簡単に改善できる。だが、機械でどこまで事故を減らせば社会が満足するかを決めるのははるかに難しい。