下载APP | 繁體版 | 发布广告 |常用工具

特斯拉回应最新致命车祸调查:车主使用不当(图)

京港台:2019-5-19 00:57| 来源:华尔街见闻 | 评论( 11 )  | 我来说几句


特斯拉回应最新致命车祸调查:车主使用不当(图)

来源:倍可亲(backchina.com)

  因为一旦车毁人亡,特斯拉会更倾向于认为:车主没有正确使用AutoPilot.

  这就是在最新一起特斯拉致命车祸调查后,特斯拉官方给出的回应。

  

  《连线》报道,美国国家交通安全委员会(交委会)周四公布调查结果称,2018年3月1日发生在佛罗里达州德尔雷海滩的Model 3致命事故中,特斯拉电动车的自动驾驶系统(Autopilot)处于启动的状态。

  这是美国发生的第三起与特斯拉自动驾驶系统有关的致命事故。

  交委会的初步报告说,这名司机在撞上一辆半挂车前大约10秒启动了自动驾驶系统,在事故发生前不到8秒,系统并没有检测到司机的手放在方向盘上。

  

  然后这辆电动车和半挂卡车撞击,车顶被刮了下来,车毁人亡。

  该机构说,这辆车在一条限速每小时55英里(89公里)的公路上以每小时68英里(109公里)的速度行驶,自动驾驶系统和司机都没有进行任何规避危险的动作。

  特斯拉公司在一份声明中说,在司机启动自动驾驶系统后,他“立即将手从方向盘上移开。那是整个驾驶过程中车主唯一一次使用AutoPilot。”

  特斯拉还补充说:特斯拉所有的司机在使用自动驾驶系统的情况下行驶了超过10亿英里,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由自动驾驶系统支持的司机比那些没有帮助的司机更安全。

  什么叫使用得当呢?

  就是使用AutoPilot的时候,车主要保持高度专注。

  但《连线》杂志也发问特斯拉了:为啥一辆大卡车横在前面,AutoPilot的系统“看不见”?

  在特斯拉的AutoPilot和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够安全。

  但事实证明,并非如此。

  实际上,这Model 3的事故调查结果,跟之前其他特斯拉致命车祸并无明显不同。

  2018年3月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,司机收到了将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发生时,这辆Model X车处于自动驾驶模式。

  2016年5月,一名特斯拉Model S司机在佛罗里达州威利斯顿附近被撞死,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。

  更早之前,被称为特斯拉首例死亡车祸的事故中,也是AutoPilot状态下的特斯拉,没有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。

  但即便如此,马斯克仍然觉得,视觉方案已经足够安全,用激光雷达的自动驾驶方案都是大傻X.

  

  而且AutoPilot本身,就存在一直被热议的高级辅助驾驶悖论。

  自动驾驶分级中,共分5级,级别越高,人类参与驾驶的程度就越低。

  特斯拉的AutoPilot,虽然特斯长期以“自动驾驶”对外宣传,但业界始终认为处于L2-L3之间,属于高级辅助驾驶。

  这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。

  矛盾之处也正是如此。

  

  一方面,AutoPilot可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。

  这就要求一个长时间放松的人,必须还要时刻专注在车程中。

  换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。

  很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。

  于是当“老师点名提问”来临,他们往往措手不及。

  当然,特斯拉也并非完全没有针对性方案。

  比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘子就能“骗”过特斯拉的系统。

  而且现在特斯拉FSD全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马斯克就认为足够开启全自动驾驶了。

  该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全自动驾驶。

  马斯克还放话说,明年(2020年)还要推出RoboTaxi,推动100万辆特斯拉成为无人驾驶出租车。

  至于安全准备,马斯克不以为意。

  在RoboTaxi的目标中,Waymo实际路测了2000万公里,还小心翼翼在中西部城市凤凰城郊区保守体验。

  而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶路测。

  

  什么叫阴影模式,就是在特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“阴影模式”帮助特斯拉后台迭代自动驾驶算法。

  很多特斯拉车主,也对此觉得并无不妥。

  如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸发生。

  然而,一旦有车祸发生,特斯拉不会像Uber无人车那样被直接追责,特斯拉官方和其他车主会异口同声说:AutoPilot很好,使用不当是当事车主的错。

  你说,这样的小白鼠哪里找?

相关专题:特斯拉

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2019-6-17 12:33

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部