米国規制当局関係者が明かす自動運転とドライバーの責任論
知性を宿す機械

Tesla Investigations Could Question Viability of Semi-Autonomous Driving テスラ車事故で米当局見解
自動運転を規制へ?

テスラ車の事故調査は不完全な自律運転の実用化は時期尚早と結論づける可能性がある。 by Tom Simonite2016.07.13

ジョシュア・ブラウンさんが5月7日にテスラ モデルSの自動運転機能をオンにしたとき、ブラウンさんは自動運転機能を信用するな、と警告されたはずだ。

「常にハンドルに手を添えて、いつでも自分が運転を代われるように備えてください」

自動運転をオンにすると、こう表示される。だがその日、自動運転が検出できなかったセミトレーラーの側面に車が突っ込み、ブラウンさんは亡くなった。車に残されたデータには、衝突の直前にドライバーが車を操作していた痕跡は記録されていなかった。

米国運輸省の道路交通安全局(NHTSA)と国家運輸安全委員会(NTSB)によるこの事故の連邦事故調査では、テスラの設計が、ドライバーに過大な要求をしていないかを問うことになる。

ブラウンさんの衝突事故の調査をNHTSAが発表してから、テスラは自動運転による軽微な衝突事故で使ってきたのと同じ表現でテクノロジーを説明している

「自動運転は日々改善されていますが、まだ完全ではなく、ドライバーは油断しないでください」

また、テスラの説明では、事故調査は「システムが期待通り働いたかどうかを見極める」ことだとしている。

アメリカン・センター・フォー・モビリティ(自動運転テクノロジーの試験施設設立に関わる非営利団体)のジョン・マドックスCEO(2008年から2012年までNHTSAで車両安全性研究プロジェクトのリーダー)は、ドライバーが自動運転を監督できる考えが合理的かどうか、NHTSAはブラウンさんの事故と、7月にペンシルバニア州で起きたテスラ モデルX SUVが起こした事故の両方で、検討するだろうという。

「メディアの記事によれば、監督義務のあるドライバーが自動運転任せだったことは、衝突事故の要因です。米国の機械安全基準には『予見可能な誤使用』の概念がありますが、ドライバーに何を言ってもあるテクノロジーを誤用するのであれば、それは不合理なリスクといえるでしょう」

何十年にも及ぶNHTSAの歴史は、ドライバーに何かを助言するだけでは不十分であることを示している、とマドックスCEOはいう。たとえば、トヨタ車の「意図しない加速」の原因はフロアマットと判明したとき、NHTSAはメーカー名を公表したが、実はマットの位置を変えないよう、メーカーは車の所有者に注意表示していたのだ。

ウィスコンシン大学のジョン・リー教授も、テスラの事故調査は、自動運転が故障したとき、人間の介入を期待するのが合理的かどうか考慮すべきだという。リー教授が関わった全米アカデミーズ報告書は、車両電子装置の故障がトヨタの加速問題の原因かどうか述べている。報告書は電子装置が原因ではないと結論したが、NHTSAには自動車の電子システムを調査する設備が不足していることを厳しく非難した。

「テスラの不幸な出来事は、全米アカデミーズ報告書がNHTSAに対処能力を与えようとしていた、まさにそのケースなのです」とリー教授はいう。テスラが説明するとおりに動作するかだけではなく、幅広い範囲を念頭に設計を調査できなければ意味がない。自動運転のようなシステムを確実に監視できるほど人間は信頼できない強力な証拠があるとリー教授はいう。

「根本的に、かつ生理的に、人間はまれに故障するシステムの監視には不向きなのです」

車両を完全に制御する場合でも、人間はずっと集中していられないことには十分な証拠がある。たとえば米国安全性評議会は、米国で発生する年間160万件の衝突事故で、ドライバーによる運転中の携帯電話使用が関わっていると推計している。

自動運転で自動車の操作が不要になれば、人間は自動運転中に機械を監督するつもりはなくなり、いざ機械が対処できないとき、運転を引き受ける準備ができていない状態になるため、「この状態に人間を放り込んでおいて、適切な対処を求めるのは酷でしょう」というリー教授の研究室では、機械から人間への運転の交代が困難であることを実証する運転シミュレーターで研究したという。

グーグルの自律自動車プロジェクトの責任者は、部分的にしか自動化できていない試作品を140人に貸し出した後、テスラのように警告だけして手放し運転ができる設計は危険だと判断したと語った。記録が取られていても、ドライバーはすぐにテクノロジーを信用し、後ろを振り向いて後部座席の物を探すようになる。(”Lazy Humans Shaped Google’s New Autonomous Car”参照)。

テスラの事故調査は、ドライバーの操作をほぼ代替できるシステムの安全性問題に、NHTSAが向き合う初事例だ。一方、航空機や鉄道事故も扱うNTSBは、先週末にテスラの事故も調査すると発表した。

自動運転は、NTSBには多少なじみがある。航空機や鉄道事故では自動運転機能のデータを記録した「ブラックボックス」が事故調査の中心だからだ。だが、NTSBのクリストファー・ハート委員長は、近年、自動化機能が続々とコックピットに導入され、民間パイロットのプロ意識が低下していると嘆く。6月には、NTSBの知見では、車に自動運転機能を追加するのは注意すべき理由があるとハート委員長は警告していた。

「人間中心の複雑なシステムに自動化テクノロジーを導入すれば、面倒な問題が起きるでしょう。人間の操作が残り、不完全に自動化されたシステムでは、問題はさらに難しくなるのではないでしょうか」