美国首例,也是全球首例
雷刚 发自 副驾寺
智能车参考 | 公众号 AI4Auto
如果智能驾驶系统失误,造成车祸,责任谁付?
之前,车主受伤受害,使用不当,车主自承全责。
现在,最新判例,如果造成别人伤亡,车主还要被控过失杀人。
依然是特斯拉。
AutoPilot系统闯红灯
据美联社,之前使用AutoPilot造成致死车祸的特斯拉车主,被控过失杀人。
该起事故发生在2019年12月,洛杉矶郊区,当时特斯拉车主凯文驾驶特斯拉Model S,下高速后在开放道路闯了红灯,撞上一辆本田思域,造成对方两名乘客丧生。
关键是,当时特斯拉Model S处于AutoPilot驾驶状态。
某种意义上来讲,是AutoPilot系统闯了红灯。
AutoPilot,正是特斯拉最早推出的智能驾驶系统,一度以“自动驾驶”对外宣传,并在FSD对外发布前,至今仍是特斯拉最核心的智能驾驶系统。
AutoPilot系统,也在OTA中不断升级,后来不仅有高速上领航辅助驾驶的能力,还有了开放道路识别红绿灯前进的能力。
而此次的事故,正是由于AutoPilot状态下,系统对红灯没有准确识别,造成致死车祸。
于是丧生者的家属,将车主和AutoPilot提供方特斯拉公司,双双告上法庭。
在经历调查和取证后,美国司法方面确认了,事故发生时,确实处于AutoPilot驾驶状态。
但据最新的法庭文件披露,目前被指控的是特斯拉车主,而且被控罪名还是“过失杀人”。
特斯拉公司,则基本也不会被牵连追责了。
美联社披露,检察官没有提及AutoPilot,并且认为驾驶员在驾驶状态下应始终对车辆负责。
美国首例,也可能是全球首例
最新文件和指控披露后,迅速引发热议。
可以确定的是,这是全美第一次有车主因为智能驾驶系统失误肇事,遭遇重罪指控。
另外,全球范围内,也是首次有类似案例被公开披露。
所以这起指控一旦成为判例,可能还会有更长远的意义。
因为AutoPilot也好,FSD也好,甚至特斯拉之外正在全球展开的智能车变革,这都是绕不过去的话题——
智能驾驶系统出了事,责任究竟谁负?
之前,智能驾驶系统相关的车祸,受害者更多是车主本身,更多被以“使用不当”而划分责任。
但在这起风向标式的事故中,AutoPilot没有准确识别信号灯,闯红灯肇事,显然与系统能力和系统提供方,有直接关系。
但至少目前来看,系统免责,使用者全责,依然是核心思路。
为什么是“依然”?
因为除去特斯拉AutoPilot所处的量产自动驾驶领域——把自动驾驶能力放在量产车上售卖和使用,在完全自动驾驶领域——RoboTaxi,也发生过致死车祸,也最后给出了类似判罚。
已经灰飞烟灭的Uber自动驾驶,在2018年撞上行人造车致死车祸……成为全球首例自动驾驶致死车祸的始作俑者。
后来经过调查,Uber无人车上的安全员成为追责主体,司法机构认定其未能尽到责任,对车祸发生应负全责。
Uber车上的安全员,最后被控过失杀人,面临重罪刑罚。
但当是时,舆论也认为Uber自动驾驶系统不能“逍遥法外”。
不过最后,法院认定:
没有依据判决Uber需要承担刑事责任。
至此,随着特斯拉AutoPilot事故指控曝光,自动驾驶领域的事故认定判罚,在美基本定调——
追责主体,不会是算法、系统和系统提供商,依然还会是使用者和监管者。
只不过悬而未决的是,如果完全无人驾驶发生致死车祸,责任又该由谁来承担?
系统提供方?云代驾人员?
— 完 —
智能车参考 · AI4Auto
关注我们,第一时间获知智能车最新动态