自动驾驶汽车难以克服的局限性

作者:8288  于 2017-4-7 15:05 发表于 最热闹的华人社交网络--贝壳村

作者分类:网络文摘|通用分类:我的车车|已有3评论

关键词:局限性, 汽车

人类启动了自动驾驶汽车计划,并且相信这项技术将加强安全。但在当前发展阶段,这显然是一个过于大胆的假设。

我们人类容易犯错,不完美,容易犯错和出现基本的判断失误。因此,我们发明技术来帮助自己。

以推出自动驾驶汽车的计划为例。人们相信,这项技术将加强安全。但在当前发展阶段,这是一个非常大胆的假设。

首先,支持这种观点的证据并不存在。我们拥有的最好数据来自加州在2016年期间进行的测试。必须记住,这个州拥有温暖的气候,很难代表全球的驾驶状况。

谷歌(Google)的Waymo得分最高,每驾驶5127英里需要一次人为干预。这比上一年有所改善,但远远算不上完美。2016年,Waymo的60辆测试汽车的驾驶总里程约为1.0597万英里(比美国每辆汽车的年度平均里程少3000英里),其间每辆汽车需要至少两次干预。

特斯拉(Tesla)的表现糟糕得多。去年,这家电动汽车制造商有4辆汽车接受测试,每辆汽车的平均行驶里程为137英里,每辆汽车发生45次人为干预,大约每3英里一次。每次干预代表着一起潜在被避免的事故。

鉴于多数行业观察者认为公众不会容忍任何故障,因此这些结果都不振奋人心。相关技术确实在改进。但还有一个事实,自动驾驶汽车早在上世纪90年代中期就已出现,甚至当时就有一款汽车的“自动驾驶比例”达到了98.2%。

然而,即便能够克服技术挑战,意料之外的负面外部性也很可能难以逾越。

优步(Uber)在亚利桑那州的最新自动驾驶汽车事故恰恰说明了这点,事故责任方是另一辆汽车的人类驾驶员,而非优步的汽车。在这个例子里,责任人没有让路,这令人关注即将到来的自动化过渡的最大挑战之一:人类和自动驾驶汽车必须能够安全互动。

然而,推动人类行动的因素与算法的运行迥然不同。在基本层面,多数驾驶者(除了那些醉酒、有自杀倾向或者蓄意制造害怕或恐惧的人)都有意保护自己,保护其他人。复杂的算法并不能保证会如此。

也有例外,例如最近伦敦发生的恐怖袭击。但是淘汰人类驾驶员不一定会减轻风险。那些自动驾驶汽车可能很容易变成武器,因为他们只需要被黑客入侵,而不需要由恐怖分子驾驶。

与此同时,2014年,因酒精中毒导致死亡的美国人数量是致命车祸的3倍。因此,如果驾车会鼓励人们保持清醒,另一个意外后果可能是当人类摆脱了这种责任后,滥用酒精和药物的人数会上升。

还有就是我们不得不相信程序员。通常,在企业界,雇主会精心设计奖惩计划,以确保员工有动力把工作做得尽可能好,即便偷工减料对他们有利。他们会被追究责任。在人类草率行为可能对他人造成特别糟糕影响的领域(例如银行业或空中交通管制),这种激励更为重要。

然而,自动驾驶汽车将由程序员大军编程和维护,就问责机制而言,这些程序员受益于他们人数众多。我们能够确定他们会一直得到妥善激励吗?

最后,尽管自动驾驶技术将增强人类驾驶技能的说法理由充足,但风险在于这可能导致人类能力的退化。我们肯定不想冒这个险:在我们真正需要这些能力时,却发现它们不存在了。

译者/梁艳裳


高兴

感动

同情

搞笑

难过

拍砖
1

支持
6

鲜花

刚表态过的朋友 (7 人)

发表评论 评论 (3 个评论)

11 回复 Nanshanke 2017-4-9 00:26
有点强词夺理的感觉。自动驾驶不完善,但仍会比人类驾驶安全的多。
8 回复 前兆 2017-4-9 02:22
谁承担责任?制造商?程序员?或者是......?
11 回复 沁霈 2017-4-9 03:57
同意该文观点,我也觉得这个自动驾驶设想比较大胆。

facelist doodle 涂鸦板

您需要登录后才可以评论 登录 | 注册

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2023-1-27 16:38

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部