首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自动驾驶撞了人,法律应该怎么判?

科技的发展日新月异,我们不妨来畅想一下未来的某个场景:某年某月的某一天,一辆自动驾驶汽车在路上第一次撞上一名行人并致其死亡。那么这种情况适用什么样的法律呢?

日前,英国布莱顿大学的John Kingston对未来智能驾驶汽车若发生交通意外,致使人员被撞受伤的刑事问题该如何审判,依据什么等问题深入研究,并给出了结论。他提出了AI领域的刑事责任理论,并指出自动化、计算机和法律领域需改变态度,谨慎应对等关键问题。

Kingston说,他与以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任

现行法律可能适用于AI的三种情况

人工智能系统能否自行承担刑事责任?构成刑事责任通常需要明确其行为和意图。Kingston称Hallevy描绘了AI系统可能涉及的三种刑事犯罪情况。

第一种情况为间接犯罪,肇事者为存在精神缺陷的人或动物,此类肇事者无需承担法律责任。但任何操纵精神病患者或动物实施犯罪的人均需承担相应刑事责任。

第二种情况为不可抗力与意外事件,即指因不当使用AI系统导致的犯罪。Kingston以日本摩托车工厂智能机器人杀人案件为例,解释道:“机器人将工人误认为危险对象,采取消除威胁的最有效方式,挥动力大无穷的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行工作任务。”

第三种情况为行为与意图兼具的直接犯罪,如果AI系统的作为或疏忽不作为构成犯罪,则可直接证明其犯罪事实。Kingston认为,犯罪意图虽然难以界定,但仍具参考价值,他表示:“超速属严格责任犯罪。因此根据Hallevy的说法,自动驾驶汽车如果超速行驶,法律上有充分理由追究驱动该汽车AI技术团队的刑事责任。”

AI系统将如何为自己辩护?

如果一个人工智能系统可能会承担刑事责任,它会使用什么来辩护?

被追究刑事责任的AI系统将如何辩护?Kingston列举了几种可能:AI程序是否可效仿精神病患者,以系统故障为由进行辩护?或效仿人类被迫或醉酒犯罪,将受电脑病毒袭击作为辩护理由?

这些辩护手段并不是理论上的。Kingston 指出,在英国,一些被指控电脑犯罪的人成功地辩称,他们的电脑感染了恶意软件,而这些恶意软件恰恰是导致犯罪的罪魁祸首。

在一个案例中,一名被指控执行“拒绝服务型攻击”(Denial-of-Service Attacks)的少年电脑黑客声称,为此事件负责的应该是特洛伊木马程序,而这个木马程序在被进行初步分析之前已经从电脑中自我清除了。Kingston说:“被告的律师成功地让陪审团相信,这样的情况并不超出合理的质疑。”

AI系统犯罪这锅谁来背?

最后,涉及刑罚类型。既然AI系统是犯罪行为的直接责任方,那么应由谁来接受何种刑罚?这些问题尚不得而知。但若AI系统触犯的是民法,就不应再追究其刑事责任。那么问题来了,AI系统究竟属于服务还是产品

如果它是产品,那么产品设计立法将作为适用于这种情况的基础保证。

如果它是服务,则过失侵权行为适用。在这种情况下,原告通常必须通过三个要素来证明过失。第一个是被告有照顾义务——通常是很直接的,尽管在人工智能的情况下,很难评估护理标准,Kingston说。第二个因素是被告违反了这项义务。第三个因素是,这一违反行为对原告造成了伤害。如果这一切还有些含糊不清,人工智能系统的法律地位可能会随着它们的能力变得更像人类(甚至是超人)而改变。

当我们在人工智能研发的道路上不断奔跑前行的时候,围绕人工智能构建规章制度就成了重中之重。否则当有一天真的发生无可挽回的事情的时候,后悔已来不及。

来源:2018年03月19日 环球网

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180319A1P7DA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券
http://www.vxiaotou.com