ただ、歩行者はヘッドライトに照らされても急ぐ様子はなく、そのままわたり続けているように見える。考え事をしていたのか、夜間で右からくる車両の距離と速度を見誤ったのではないか。XC90のヘッドライトは異形のLEDだが、この影響もあった可能性がある。動画を見てもヘッドライトの配光エリアの境界がかなりシャープだ。照射エリアとそうでないところの明暗がはっきりしすぎている。一般的なヘッドライトより遠方からの視認性が悪いか、見え方が異なり目測を誤ったのかもしれない。

 もうひとつは、歩行者の服装もセンシングに影響を与えることがある。LiDARが歩行者に反応していても、そのスキャン形状によっては画像認識AIが「歩行者」と判断できないことはある。

 いずれにせよ、歩行者側に落ち度があるとすれば、横断禁止の道路を横切ったくらいであり、それ以外の状況は、少なくとも無人走行を目指すなら対処できなければならないものだといえる。

ドライバーのよそ見がなければ事故は防げたか

 ドライバーに問題があるとすれば、やはりよそ見は指摘せざるを得ない。動画では衝突前は計器類をチェックしていたのか目線が下にいっている。直前に目線を上に上げたとき、すぐにびっくりした表情になっている。おそらく気がついたときは完全に間に合わないタイミングだったことがうかがえる。

 自動運転のテストなので、計器を読んだり記録をつけたりする必要はあるのかもしれないが、緊急時に運転席に乗るなら、役割分担を明確にしたほうがいい。同乗は2名以上とし、運転席は緊急時の対応に限定する運用は必要かもしれない。

不都合な事実を公表できる構えを

 自動運転の事故については法的な責任問題もよく議論されるが、いまのところ自動運転の判断・制御部分は従来型のプログラムがほとんど処理しているので、AIの責任について考えること自体にあまり意味はない。現状で定義されているレベル5の「完全自動運転」でも、責任はドライバーかメーカーのどちらかに帰すものと考えるのが自然だ。無人走行なら運行管理者とメーカーの両方かどちらか一方だ。

 ここで必要なのは冷静かつ透明性の高い事実の検証だ。自動運転に限らず、社会や大衆によって評価、検証されない技術は成功しない。業界や組織の理論が優先されるテクノロジーほど危険なものはない。今回動画などを検証したが、技術的な不具合が100%ない状態であっても、人間には必ずエラーが発生する。人間のエラーが関わっている時点で、事故の発生要因は従来とさほど変わらない。したがって事故は一定の確率で必ず発生する。これをゼロにするための道のりは決して平坦ではない。

 日本企業は、事件や事故が起きると委縮・自粛しがちだが、見方によれば、それは未然の責任回避ともいえる。Uberの迅速な発表や動画公開など、評価できる部分はあるが、どの企業だとしても、事故の責任から逃げることなく事実の公表ができないならば、自動運転に手を出すべきではない。

(ITジャーナリスト・ライター 中尾真二)

訂正
記事初出時、P.1で『バックアップドライバーを乗せて』とありましたが、『臨時ドライバーを乗せて』と、P.2で『街灯のない郊外の道路』とありましたが『郊外の道路』と、またP.4で『緊急時にバックアップとして運転席に乗るなら』とありましたが、『緊急時に運転席に乗るなら』と訂正しました。(2018年4月9日 ダイヤモンド・オンライン編集部)