撰文|小魔
随着马路上越来越多的汽车叠上了"自动驾驶辅助"这个新Buff,世界各地围绕着自动驾驶车的事故也开始变得层出不穷。
比如今年3月,澳大利亚就发生了一起涉及自动驾驶车的严重事故。
一名准备搭电车的行人被一辆特斯拉Model3撞倒并被拖行了近20米,该事故导致行人重伤濒危。之后肇事逃逸的司机虽然向警方投案自首,但其声称发生事故时她的车正处于"自动驾驶"模式。
在特斯拉的发源地美国,国家公路交通安全管理局(NHTSA)也因为30多起涉及特斯拉汽车的撞车事故正在对其驾驶辅助系统开展调查。
其中最近的一起事故发生在今年5月12日,一台特斯拉ModelS在加州新港海滩沿太平洋海岸高速公路行驶时撞上了建筑设备,导致三名乘客死亡,三名工人受伤。
发生了交通事故,自然需要有人来承担责任,但这类事故的调查难点在于"自动驾驶"汽车的决策过程往往是不透明且不可预测的(甚至它们的制造商往往也意料不到),因此司机和汽车到底谁应该对这类事件负责就成了难以界定的问题。
然而,随着近些年科学界在"可解释AI"领域的探索,可能会对这类事件的评判提供一些积极的帮助。
当自动驾车发生碰撞时,谁应该负责?
虽然自动驾驶车是近十年的新鲜事物,但它们仍然是由汽车制造商制造并销售的机器。
因此当它们造成伤害时,首先应该询问制造商(或软件开发商)是否履行了他们的安全责任,至少英美等国的法律是这样认为的。这样的思考逻辑,主要是基于过失侵权法。
在英国的立法中,基于过失的一般侵权责任,来自于1932年著名的多诺霍诉史蒂文森案,这也是英美法历史上最为著名的判例之一。
该诉讼源自一位名叫多诺霍的女士,她在咖啡馆喝饮料时,在自己的姜汁啤酒瓶里发现了一只正在腐烂的蜗牛。
为了维护自己的权益,她以侵权法中的过失责任为由向啤酒制造商史蒂文森提起了诉讼,要求被告支付500英镑的损害赔偿金,因为她认为制造商有责任提供安全的产品,不应该让蜗牛进入啤酒瓶中。
当时该案件一直上诉到了英国的最高法院——上议院。最终,上议院以3:2的多数表决支持了多诺霍的诉讼请求,判定制造商对于消费者承担合理注意义务——保证其产品对消费者不发生损害,对于未尽到注意义务而对消费者造成的损害需承担赔偿责任。
所以说按照过失侵权法,像自动驾驶车这样基于复杂AI系统的汽车,其制造商和开发人员可能无法预测和控制"自动驾驶"系统的一切行为,但他们可以采取措施来降低风险。
如果他们的风险管理、测试以及监测措施不够好,理所应当要追究制造商的责任。
多少风险管理才算够?
当然对法院或者监管机构来说,并不是简单粗暴地将责任划分给制造商就算完事,这其中还涉及了一个相当困难问题。
就像前面我们说的,制造商需要采取措施来降低自动驾驶车的风险,建立必要的测试及监测措施,但这个风险管理要做到怎样的程度才算足够?
要知道在复杂的软件中,想预先测试每个bug是根本不可能的。开发人员和制造商又如何知道他们何时该停止呢?
目前看来,欧美等国的法院、监管机构和技术标准机构在为有风险但有必要的活动制定责任标准方面还是有一套经验的。
这个标准可能是非常严格,比如欧盟的AI法规草案要求"尽可能"降低风险,而不考虑成本。或者类似澳大利亚的过失法,允许对不太可能或不太严重的风险进行不那么严格的管理,或者风险管理会降低风险活动的整体利益。
不透明AI将使法律案件更复杂
一旦国家制定了明确的风险标准,就需要一种方法来执行它。最常见的方法之一就是给监管机构赋予惩罚的权利。
因为AI系统受到侵害的个人也必须能够起诉。在涉及自动驾驶车的案件中,针对制造商的诉讼将尤为重要。为了使这种诉讼可以有效进行,法院将必须详细了解AI系统的流程和技术参数。
出于商业原因,制造商通常不愿透露这些细节,但有些国家的法院已经有了明确的程序来维持商业利益和适当细节披露之间的平衡,促使诉讼能够更顺利地推进。
但当AI系统本身是不透明的"黑匣子"时,可能会诉讼带来更大的挑战。例如,特斯拉的自动驾驶功能依赖于"深度神经网络",这是一种当下主流的AI系统,即使是开发人员也永远无法完全确定它是如何或为什么得出某些特定结果的。
"可解释AI"会带来新帮助吗?
打开现代AI系统的黑匣子是新一波计算机科学和人文学者的关注焦点,也就是所谓的"可解释AI"运动。
其目标是通过改变系统的构建方式或事后生成解释,帮助开发人员和最终用户理解AI系统是如何做出决策的。
这里有一个经典例子,就是一个AI系统错误地将一张哈士奇的照片归类成了狼。
而使用"可解释AI"后它对这个识别错误给出的解释是,该AI系统关注的是照片背景当中的雪,而不是前景中的动物,因此做出了错误的判断,这就让我们理解了AI识别图片到底是用了怎样的行为逻辑,以及它为什么会犯这样的错误。
对于法院来讲,将"可解释AI"用于诉讼也许能在一定程度上解决所谓的AI不透明问题,但如何使用"可解释AI"仍要取决于许多因素,比如案件涉及的具体AI技术和使用该AI技术的智能工具造成了怎样的侵害之类,还有一个关键问题是受害者对AI系统有多少的使用权限。
Trivago诉讼案带来的鼓舞
在与AI系统有关的诉讼中,澳大利亚法院最近判决的一个重要案件,就给处于弱势地位的用户带来了不小的鼓舞。
2022年4月,澳大利亚法院对全球酒店预订公司Trivago处以4470万美元的罚款,原因是该公司在其网站和电视广告中误导顾客关于酒店房价的信息,于是澳大利亚消费者委员会(ACCC)对其提起了诉讼。
在这起诉讼中,一个关键问题是Trivago复杂的排名算法是如何选择排名最高的酒店房间报价的。
对此,澳大利亚法院制定了具有保护Trivago知识产权的证据披露规则,ACCC和Trivago都传唤了专家证人,提供证据解释Trivago的AI系统是如何工作的。
即使没有完全访问Trivago的系统,ACCC的专家证人也能拿出令人信服的证据,证明该系统的行为与Trivago所宣称的给客户提供"最优价格"不一致。
这就表明,在法庭案件中技术专家和律师是能够克服AI系统的不透明性。然而,这个过程需要密切的合作和深厚的技术专长,而且可能也会非常昂贵。
对监管机构来说,其实它们现在就可以采取一些措施简化未来的事情,比如要求AI公司在记录系统方面更加充分全面。
现如今,不同程度的自动化车辆正在变得越来越普遍,各种全自动驾驶的出租车和公交车也开始在世界各地展开路测。
当更多自动驾驶车参与到交通大环境中,想让我们的道路变得尽可能安全,势必需要AI和法律专家建立起密切的合作,至于监管机构、制造商、保险公司甚至是用户也都会在提升自动驾驶车安全方面发挥极为重要的作用。【END】