AIは「事象の積み重ね」はできるが「判断」はできない

 AI(機械学習またはディープラーニング)は、認知・判断・操作という運転操作におけるプロセスのうち、認知まではできても判断までは行っていない。画像処理によって、先行車、対向車、合流車、歩行者、センターライン、ガードレール、あるいは走行可能な経路(通路)の認知を行っているだけだ。

 レベル3までの自動運転支援(ADAS)の場合、画像認識AIを搭載したカメラモジュールの信号をもとに、専用ECUが電動ブレーキや電動パワーステアリングを操作・介入しているだけものが多い。

 レベル4以上の自動運転やWaymo、Uberなどの無人カーの場合も、センサーやAIからの情報を総合的に判断して、クルマの操作を行うのは、従来型のプログラムが行う。プログラムは入力情報を数値として比較したり、計算したりすることで、どういう処理をするかを、あらかじめ決めておいて記述する必要がある。

 したがって可能性としては、まれに発生するAIのエラーか、LiDARのエラーによって歩行者を見落としたということが考えられる。画像やセンサーデータの分析が進めば、問題のコンポーネントとその状況は明らかになるだろう。

 3月28日付けロイターの報道では、Uberの実験車両のLiDARが1台しかないため、前方に死角ができていた可能性を指摘している。Uberが以前使っていたフォード フュージョンには、7台のLiDAR、7台のレーダー(赤外線の代わりに電波を使う)、20台のカメラが搭載されていた。しかし今回のXC90にはLiDARが1台。レーダーは10台、カメラは7台に減らされていた。加えて、車高が高いSUVは垂直方向のレンジが狭いLiDARの死角を作りやすいというものだ。

 製品化・実用化に向けて高価なLiDAR、レーダー、カメラを減らすことは優先課題であり、各社が取り組んでいる。競合のWaymoなどがまだ5、6台のLiDARを搭載していることを考えると、1台は減らしすぎの可能性はあるが、その分レーダーは7台から10台に増えている。カメラもLiDARも何台搭載されていようが、それぞれ検知領域や機能の分担があるので、台数での比較はあまり意味がない。

 今回の場合、Uber技術の未熟さや車高の高い車のためLiDARに死角があったという分析がある。それを補うはずのレーダーも、遠方で横断する(移動する)物体を「障害物」とは認識できなかった。しかし、あえてLiDARを1台に減らす設計で、100メートル先のほぼ正面の移動物体を見逃す死角を放っておくだろうか。もしそうなら、事故の原因と改善点はセンサーまわりの設計と実装ということになるだろう。

歩行者側に問題はなかったのか

 ドライバーや歩行者についても考えてみたい。犠牲者には申し訳ないが、歩行者は道路上の車両を認識していなかったのかという疑問もある。車両からは遠くで横断している歩行者は見えなかったかもしれないが、歩行者からはヘッドライトの明かりが見えていた可能性が高い。地図や動画などで見るかぎり、物陰からの急な飛び出しではない。見通しのよいほぼ直線の二車線道路。坂で直前まで車両が見えない道路でもない。