日米欧の自動車メーカーやITメーカーが開発にしのぎを削る自動運転車。安倍晋三首相は2020年の東京五輪までに普及させる方針を表明したが、わが国は規制の厳しさから後塵を拝している印象がある。自動運転の開発・普及に向けて、わが国の産官学はどのような取り組みをしているのか。その目指す方向と解決すべき課題を読み解く。

ついに日本でも発表された「自動運転」車
一体どこまで“自動化”しているのか?

 2016年7月13日、日産自動車は国内の自動車メーカーとしては初となる、自動運転技術を搭載した新型「セレナ」を発表した。すでに米国・テスラモータースが自動運転車両「モデルS」を販売していたためか、新鮮な驚きを持って受け止められているとは言い難いものの、普及価格帯の乗用車に自動運転技術を搭載したことは、非常にチャレンジングな試みとの評価を得ている。

自動運転の技術発展レベルには、レベル0からレベル4までの「定義」がある

 しかし、「自動運転」とひとことで言い表されるこの先端技術が、いまだはっきりとしたイメージを描きづらい“謎のテクノロジー”に留まっている感は否めない。

 人々いわく「結局、人がハンドルを握っていないといけないんでしょ?」、また「高速道路しか走れないの?」、さらには「事故の責任は誰がとるんだ?」。

 ではいったい、現在の「自動運転」はどこまで「自動」なのだろう。また、安倍首相が実現すると宣言した「自動運転車」とテスラや日産の「自動運転車」とは何が異なるのだろう。

 実は、自動運転の技術発展レベルには、各国のメーカーが参照している米国運輸省・NHTSA(国家道路交通安全局)の定義がある。

レベル0:“非自動化”=人間が常に運転操作を行う
レベル1:“補助”=加減速かハンドルの一部機能を自動化
レベル2:“複合的な自動化”=加減速とハンドルの両機能を自動化し、コンピュータの判断を超えた場合に人間が運転する

−−−(ここより下は運転の責任をシステムが負う)−−−

レベル3:“条件付きの自動化”=コンピュータが常時運転し、故障や凍結路面など難しい条件の時のみ、システムの要請で人間が操作する。自動運転中は人間が交通を監視する必要がなく、セカンドタスクが許容される
レベル4:“完全自動化”=いかなる場合でもシステムが運転操作を行う

 注目すべきは、誰が運転の責任を負うか、という点だ。

 NHTSAの基準では、「レベル2」までは人間の運転手が運転を監督する必要があり、「レベル3」からはコンピュータ、つまりシステムの開発者である設計者・メーカーが責任を負うことになっている。

 ヨーロッパのほとんどの国が批准しているウィーン交通条約では、14年、「運転者がいつでも機能を無効にでき、運転を引き継ぐことができること」を条件に、レベル3の公道における使用が認められた。このことが、ヨーロッパで自動運転車実用化への動きを加速させている。