首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

一年前的uber无人驾驶撞人事件,是技术缺陷更是人祸

相信大家都不会忘记一年前Uber自动驾驶汽车撞人事件,那是2018年3月18日晚,在亚利桑那州,当时49岁的Elaine Herzberg推着自行车穿行马路,被一辆Uber自动驾驶测试车撞倒后不幸身亡。

近日,NTSB的调查报告出来了,在Uber自动驾驶车撞到受害者之前的5.6秒,汽车的雷达已经检测到Elaine Herzberg,但是系统把她错误地识别为“车辆”,在5.2秒时,又把她归类为“其他”,此后的短短几秒,Uber的自动驾驶系统不断地在“自行车”与“其他”的类别中摇摆,始终没有将她归为“人”。直至碰撞前1.2秒才识别出即将撞上推着自行车的Herzberg,而那时候,自动驾驶车已经来不及刹车了。

据分析,造成这一结果的原因是Uber的自动驾驶模型并不知道要在人行横道之外寻找行人。

如果这是技术的失误,那么更为让人恼怒的是人的失误,当时该无人车上的安全驾驶员本应该看到这一切,并猛踩刹车,但安全驾驶员Vasquez那一刻并没有在看路,而是在看手机上的“The Voice”节目。

技术失误、安全员渎职共同造成了事故的发生。

抛开因管理漏洞造成的安全驾驶员的渎职,如果将技术漏洞按照在本次事故中作用大小排队,那么首先是基础漏洞,Uber的自动驾驶车辆的系统没有识别出人,说明技术并不成熟;第二个漏洞是没有在人行道外寻找行人的机制,Uber自动驾驶的规则似乎定为人行道以外没有人!这显然不是高级错误,而是坐在办公室里书呆子一样的工程师犯下的低级错误,而无人驾驶汽车只能机械地执行,并放大错误的后果;第三,Uber无人驾驶汽车缺少障碍物应急处理机制,在这次事故中,即使自动驾驶系统将人识别为障碍物,也需要根据情况实施诸如减速、刹车、避让等措施,难道识别为自行车就能一头撞上去么?这显然是另一个低级错误。碰撞前1.2秒,自动驾驶系统已经识别出行人,而此时如果打方向避让,应该还来得及,显然,自动驾驶系统并没有这样的机制。正是这一个个低级错误,造成了悲剧的发生。

今年3月,亚利桑那州的检察官表示,Uber在这起自动驾驶事故中不承担刑事责任。警方也表示,那起事故是“完全可以避免的”。若安全驾驶员注意到了,或是Herzberg在人行横道上通过,或许就能避免这一事故发生。

检察官能做的并非仅限于此,管理者可以做更多的事情。比如可以立法,从事无人驾驶系统工程师,必须有10年以上的驾龄,并在编写程序之前在车辆测试所在地,在不同的路面情况下,驾车行驶200公里以上。老司机都清楚,一个驾驶高手最重要的就是预判能力,很难想象,一群不会驾驶的书呆子,能做出什么样的无人驾驶系统,要知道行人不守规则并不少见,很少有几次事故是双方都守交规的。

很遗憾,这位行人成为技术进步过程中的牺牲品,但是检察官的判决也明显不合理,技术缺陷并不是推卸责任的理由,一个愚蠢的模型必须经过严格的检测才能被发展,而预防这种愚蠢,管理者可以做得更多。

没有人应该成为技术进步的牺牲品。

很多人说,人类驾驶的事故率要高于现阶段的自动驾驶,但我们更应该看到,技术的进步不仅仅是为了资本,更是为了所有人的安全,不能牺牲一部分人的利益去换取技术进步。

从Level 0到Level 5,随着自动驾驶级别的提高,管理者应该针对不同的级别制定相对应的交规,低级交规为高级别法规的子集,目前行人和车辆遵守的交规就是Level 0遵守的交规。

以管理弥补技术不足,防止出现低级技术错误,正是管理者应该做得事情。

独立思考,边行边写的行者啊,专注于科技、汽摩、教育,期待您的关注!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191112A0FP1O00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券
http://www.vxiaotou.com