2018年にアリゾナ州で発生した、Uberの自動運転テストカーが起こした歩行者死亡事故で、当時運転席にオペレーターとして搭乗していたラファエラ・バスケス氏が危険運転行為の罪を認め、執行猶予付き懲役3年の判決を受けました。
この事故では、夜間に自転車を押して歩いていたエレイン・ハーツバーグ氏が車道を横断中に、通りかかったUberの自動運転テストカーに跳ねられました。この自動運転の試験走行はレベル3、つまり自動運転車が運転の主体となって走行していましたが、あくまで試験走行であるため、運転席に搭乗しているオペレーターが常に前方を注視し、万が一の際には運転を引き継いで危険を回避することが求められていました。
警察は、バスケス氏が走行中にスマートフォンでHuluの番組を視聴しており、オペレーターとして求められていた前方注視を怠っていたと報告しています。
裁判において、検察側は業務上求められていた安全のための操作が行われなかったことから、バスケス氏がこの事故についての責任を負うべきだと主張しました。なお、事故後の分析では、テストカーは走行中にハーツバーグ氏の存在を認識したものの、回避のための反応ができていませんでした。
一方、バスケス氏の弁護士の主張は、バスケス氏が前方不注視状態だったことに関しては、一時的に視線を落としただけだと主張していました。また事故の調査を行った米国家運輸安全委員会(NTSB)は、Uberが、ベース車両のボルボXC 90が搭載する緊急自動ブレーキ機能を「走行がギクシャクしないようにするため」無効化していたことが、事故の一因だと報告しています。
自動運転車の走行については、その自動化レベルによって、事故発生時の責任の所在が異なります。今回の事故では、テストカーは自動運転レベル3のテストをしており、運転のあらゆる操作を自動運転システムが行う状態でした。そのためもし事故を起こした場合は、自動運転車の製造者が責任を負うことになります。ただし、このレベルでは、安全上の必要に応じてドライバーが運転操作を行えるよう備えなければなりません。
したがって、万が一の際の対応をするはずだったにも関わらず、きちんとオペレーターが状況把握に務め、緊急時の運転操作の対応をしていなければ、バスケス氏のように責任を問われる可能性があるということが今回の裁判で明確化されたと言えそうです。
この事故は、自動運転車が歩行者に衝突し死亡させた初の事例として大きな話題になりました。そして2023年現在、すでにGoogleの自動運転開発部門Waymoや、またGMの自動運転部門Cruiseが、レベル4の無人ロボットタクシーを限られた地域で走行させています。