« iPhoneは他のスマフォに比べてなぜ比較的安全なのか~技術者以外にもわかるsandbox機能 | トップページ | EUが発行したGDPRの英文に苦言を呈してみる(笑 »

2016年7月 2日 (土)

テスラの自動運転事故から学ぶべきこと

テスラの自動運転の衝突事故は、実際には現在市販されている自動車に搭載されたautopilot機能で起きたものだ。
この機能は古くは、アクセルを足から離しても、同一の速度で走行を続けるアクセル調節だけのころ(レベル1)から、そう呼ばれていた機能だ。これには衝突回避機能などはなく、運転者が自分でアクセルを解除しなければならない。
そんなものが役に立つのかというと、アメリカのフリーウェイのようなところを長時間走行するときには、足でアクセルペダルを微妙な位置に調整し続けて、足が疲れるのを防ぐのに役立つ。
この事故では、衝突回避機能が付いている(レベル2)を「自動運転」と訳して報道された。
しかし、昨今、開発が進められている自動運転(レベル3)は、英語ではautonomic drivingとも言われ、直訳するなら「自律運転」となる。
いずれのものも日本語では自動運転と訳してしまうので紛らわしいが、今回の事故を将来の「自動運転」の教訓にすることは必要だと思う。

テスラの自動運転の衝突事故では、当初の報道「米テスラ車 自動運転機能で走行中に初の死亡事故」
http://www3.nhk.or.jp/news/html/20160701/k10010579451000.html
で、
「テスラによりますと、当時は日ざしが眩しかったことから自動運転の装置が白い色のトレーラーに反応せず運転手も認識できなかったためブレーキをかけられなかったとしています。」
とのことで、カメラが逆光などで白いトレーラを検知できなかったとのことだった。

その後の報道「Tesla driver killed in crash with Autopilot active, NHTSA investigating」
http://www.theverge.com/2016/6/30/12072408/tesla-autopilot-car-crash-death-autonomous-model-s
で、
「Tesla CEO Elon Musk said that the vehicle's radar didn't help in this case because it "tunes out what looks like an overhead road sign to avoid false braking events."」
とのことで、レーダーによる衝突回避は、頭上の道路標識に遮られて、やはり検知できなかったということが付け加えられた。

何やら不幸な偶然が重なり、想定外のことが起きたという弁明に思えるが、それについては主観的・定性的ではなく、より客観的・定量的な検証をすべきではないだろうか。

この事故について他社の自動運転車で比較再現実験をするべきなんじゃないかな。
全車種でも同じく回避不能ならテスラが想定できなくても仕方ないが、回避できる車種があるなら、テスラには一定の非はあるのではないかな。想定外と言っても、テスラの開発者にとって想定外だっただけで、他社は想定できていたなら、それは人類未踏の想定外ということではなく、テスラ担当者の想定能力が不足していただけということになる。
その意味では、自動運転の開発においては、安全対策のための情報を全社が共有することにすべきじゃないかな。
間違っても、それを各社の差別化に使うべきではないわけで、以下のような情報共有が必要だと思う。

まず、上記の再現実験はリアルに車を走らせる必要はない。
自動運転の計算処理は、車載の各種センサーからのデータを入力としているのだから、そこに疑似データを与えて処理結果を検証すれば効率的だ。
それをも超えた想定外のことを検証するには、いよいよ車を走らせる必要性は残るが。

それこそ、ビッグデータ活用という意味では、自動運転車を街に走らせるよりも、普通の自動車に自動運転車と同じ車載センサーを付けて、それを大量に収集するのがよいんじゃないかな。
それらのデータを自動運転プログラムに処理させて、自動運転プログラムはブレーキをかけなかったのに、人はかけていたというケースに着目すれば、想定外と思っていることの洗い出しができる。
また、人の運転をそのようにして、ディープラーニングさせれば、自動運転者車を街で走らせて人体実験をしなくても、想定外のことを相当に洗い出せるんじゃないかと思う。
ディープラーニングで、前人未到のことを達成させるのは困難だが、人が適切に判断した大量のデータがあれば、そこから判断基準を学ぶことには長けている。ただし、人が10~100の事例で学べるところ、ディープラーニングでは10万~100万の事例が必要なので、自動運転車からのデータ収集より、現行の一般車両からのセンサーデータとそれに人がどう対処したかのデータを収集することが不可欠なはずだ。

その上で、自動運転プログラムの方がブレーキが遅れたデータを、自動運転のヒヤリハット例としてネットワークで自動共有することができれば、世界中のどこかで起きた自動運転によるヒヤリハットから全車両が学習できるようになる。
そうなると、いかに人と同程度に安全に運転するかという現状の目標を超え、むしろ、機械の方が人より安全に走行できる目標に挑戦を始めることができるようになるかもしれない。

まぁ、上記のようなことは、素人のぼくが思いつくようなことなので、既にメーカーがすべてやっているような気もするが、少なくとも会社を越えた連携にも注力して欲しいと思う。

そうでもしないと、陽射しが逆光になり頭上に大きな道路標識がある交差点などという、ありふれた条件を想定外だったとされて事故を起こされて、人の命や安全がプログラムの改善の糧にされても困る気がする。

7月 2, 2016 |

トラックバック

この記事のトラックバックURL:
http://app.cocolog-nifty.com/t/trackback/66521/63859603

この記事へのトラックバック一覧です: テスラの自動運転事故から学ぶべきこと:

コメント

コメントを書く