2018年10月17日晚,德国维尔兹堡大学法学院教授埃里克·希尔根多夫(Prof. Dr. Dr. Eric Hilgendorf)受邀莅临我院开展学术交流,在明德法学楼602会议室作了题为“自动驾驶悖论、紧急避险与不法分级”的精彩演讲。
讲座由中国人民大学法学院教授冯军主持。维尔兹堡大学法学博士黄笑岩,刘畅担任翻译。出席此次讲座的有中国人民大学法学院院长王轶教授,未来法治研究院执行院长张吉豫副教授,未来法治研究院副院长王莹副教授及刑事法律科学研究中心陈璇副教授。
冯军教授主持
冯军教授首先代表人大法学院及刑事法律科学研究中心对希尔根多夫教授的到来表示热烈欢迎。
冯军教授(左)与希尔跟多夫教授(右)
聘任仪式
讲座开始前举行了客座教授聘任仪式。王轶院长代表法学院向希尔根多夫教授颁发客座教授聘书。希尔根多夫教授对人大法学院授予其客座教授的崇高荣誉表示衷心感谢。为能够成为人大法学院大家庭的一员表示由衷的荣幸。随后,本次讲座在热烈的掌声中拉开帷幕。
王轶院长(右)颁发客座教授聘书
主题演讲
希尔根多夫教授的演讲主要分为两个部分,一是自动驾驶的悖论问题,二是德国关于自动驾驶的新近立法规定。
希尔根多夫教授首先回顾了德国乃至欧洲在自动驾驶规制方面的历史,介绍了德国自动驾驶规制理论与实践的现状,尤其是欧洲第一起因自动驾驶系统导致的车祸——阿沙芬堡案。他指出,应将法律导向技术友好型的方向。法律应当引导和促进有价值的新技术的发展。
随后,他就自动驾驶悖论问题展开演讲。为形象化这一问题,希尔根多夫教授以两个案例为中心展开论述。在第一个案例中,假设搭载有自动驾驶系统的汽车飞驰在道路上,突然在路中出现两个行人A,B,此时已来不及刹车,它可以选择左转规避,但会撞上在人行道上的另一人C。面临这种两难情形,自动驾驶系统应如何编程?是径直驶过,抑或左转?在第二个案例中,假设道路逼仄,汽车前出现三个行人A,B,C,若径直驶过,三人均不能幸免。如果左转,只会撞上A,但若右转,B,C将被迫驾鹤。面对此景,程序员又将如何编程?
希尔根多夫教授指出,以上案例不仅在法学和哲学领域有思辨意义,更为汽车制造商所现实关注。碰撞自动回避系统的核心问题在于“生命对生命”的抉择。关于这种抉择的案例不胜枚举,文献更是汗牛充栋,而最经典的表述莫过于“有轨电车难题”。在这一方面,具有实践意义的是德国联邦宪法法院在2006年对于《航空安全法》作出的判决。判决主要涉及以下问题:是否允许击落一架载满无辜乘客,但被恐怖分子挟持,作为大规模杀伤性武器欲撞向城市中心的飞机?法院对此持否定意见。其判决主要依据飞机乘客的人性尊严,从而排除了轻易将他们的生命与其他人生命“计量”的可能。
个人生命是“不可计量的最高价值”,人类的生命禁止量化比较,这是讨论上述问题的前提原则。并且,这一原则不会因为极端的数字比例而改变,即使是100人、1000人甚至100000人的生命也不会大于一个人的生命。他指出,通常我们认为人的生命无法或者至少不能被量化。但这一说法是错误的,人类生命可以量化,这从司法实践中可以推出。譬如,杀害一人还是多人,会对量刑有不同影响。因此,准确的表述是量化应被禁止:即在夺取生命的背景下,人类生命不应也不能被量化。故而,有利多数人地杀害一个人的生命仍然是违法的。以上两个案例中,无论作何选择,均要杀害无辜者,故不法状态总是存在的,违法是无法被阻却的。
其次,在第一个案例中,A,B与C不是处于一个危险共同体中。只有A,B的生命法益处于严重,具体的危险 中,而C原本没有陷入危险状态。也就是说,在自动驾驶系统作出决定前,他们的生存几率是不均匀分配的。车辆仅驶向A,B并使他们受到威胁。转向产生的规避行为将对生存几率进行重新分配。许多观点都认为这种对于生存几率的重新分配有违以人为法秩序中的最高价值的人文主义原则,C没有任何义务为救A,B而将自己陷于险地。因此,径直驶过是程序员编程时的唯一选择。而在第二个案例中,三人均处于危险共同体中。虽然生命禁止量化比较,但这并不意味着此时哪种选择都是合适的。他提出了降低损害的原则与不法分级的概念。降低损害原则一般是指当事人在紧急避险的情势下不可避免地至少要损害到两个利益中的一个,此时必须将损害减至最低。这一原则在财产与生命的抉择中得到普遍适用。他指出,在同一个危险共同体中,在生命对生命冲突的矛盾中,若要在夺走一个生命和夺走多个生命间做选择,原则上还是要遵循降低损害原则:如果一定会出现无辜者的死亡,务必将数量控制到最小。他认为,在夺取人类生命时不能量化且在杀害少数人和杀害多数人间不存在规范上的区别的论说是不能让人信服的,这不仅是因为它违反了占支配地位的社会伦理,还因为它将人类生命降级为可以忽略不计的要素,这反而违背了个人生命是最高价值这一原则。不法分级是指根据行为人是否履行降低损害原则,对其不法程度进行分级,这意味着尽可能少的危及或者夺走无辜者的生命的导向。故而,在此案中,选择左转只撞上A是合适的。
随后,希尔根多夫教授向大家介绍了于2017年通过的德国新交通法关于自动驾驶的新规定。本次立法的主要修订有:增加第一条之一,在符合规定情况下,允许具有高度自动化或全自动化驾驶功能的汽车上路行驶;自动汽车驾驶员仍享有与传统汽车驾驶员相同的权利,承担同样义务;自动驾驶系统运行时,驾驶员有执行部分个人事务的自由,不必全程紧盯系统;驾驶员得于系统提示或自己注意到紧急情况时无延误的接管汽车;车内需安装监控系统,在人工驾驶与自动驾驶切换的时刻予以拍摄。当然,立法也存在一些局限性从而招致批评。如立法未能覆盖某些实践问题,比如上述悖论问题;责任分配偏颇,汽车生产商得到过多保护,损害消费者利益;部分法律概念亟待明确,如驾驶员应在何时接管汽车,需要更详细的规定;数据保护规定有待充实;归责规定未有创新性进步等。
此外,希尔根多夫教授还就部分问题进行了展望,如互联网犯罪与自动驾驶系统的交叉问题,驾驶过程中产生的非个人数据的归属问题,自动驾驶系统拥有自主学习能力后带来的民事与刑事归责问题等。
师生互动
王莹副教授指出,希尔根多夫教授提到了被允许的风险理论在自动驾驶归责中的应用,有部分学者建议在未来设置关于自动驾驶的抽象危险犯的罪名。如何理解这两者之间的关联?能否这样认为:适用被允许的风险理论排除归责的边界,是抽象危险犯设置的起点。当法益侵害无法被被允许的风险覆盖时,仍然存在归责的需要,但是在自动驾驶技术条件下又因注意义务标准界定的困难而无法追究对具体法益侵害的过失责任,此时引入抽象危险犯是否是一个替代性方案?
希尔根多夫教授指出,并不是每一个对法益的危害都是值得刑罚处罚的。当其所带来的积极后果远大于消极后果时,有意识地创设风险便是可以接受的。正如乌尔里希·韦伯在当代所强调的那样,“法秩序接受一定的,甚至是对身体和生命的风险。就像机动化的道路交通以及危险设备运营的许可那样,然而前提是在当事人遵守了严格的防范规则。”如果制造商依据现有的技术水平尽可能安全地设置系统,就不应使得系统的制造商背负负担。就悖论问题而言,原则上不能将安装符合技术水准的避免碰撞的自动系统视为过失,即使确认这样一种系统在不利条件下也会造成人类的损害。但是,如果超出被允许的风险的范围,就可能落入抽象危险犯的范围内。比如,针对自动驾驶汽车车速过快所产生的危险情形,他建议引入生产商的抽象危险犯来予以规制。
陈璇副教授就不法分级的概念提出疑问。出现危险共同体情况下,对任何无辜者的杀害都是违法行为。但在行为构成违法的前提下,又要求行为人履行降低损害的原则,尽可能少地去牺牲人的生命。那么无论行为人是否履行降低损害的义务,他的行为都是违法的,只是不法的程度存在区分,在实际法律操作中,两者对法律后果有何影响呢?能否认为行为人履行降低损害义务可以构成责任阻却事由,抑或有其他意义?希尔根多夫教授质疑能否在传统教义学基础上解答此问题。由于无论如何抉择,行为均处于不法状态,所以他提出不法分级概念予以区分。在第二个案例中,只有撞A的不法程度最低。但有部分学者认为,在此情况下只撞一人应当阻却违法。两相矛盾的观点反映了教义学在解决实践问题中的困境。
有学生提出,自动驾驶和传统自然人驾驶所致车祸案件在归责上有何区别。希尔根多夫教授回应道,在自动驾驶所引起的车祸中,民事责任上,由于德国总是由保险公司兜底,所以不存在问题。但在刑事责任上,唯一可以归责的行为是程序员的编程行为。而程序员的编程行为是否适当,要适用被允许的风险理论来考察。
最后,冯军教授点评。诚然,利益衡量是不法判断的重要因素,但考察法益是如何处于危险状态之中的,对其进行规范判断,也是不可缺少的一环。而报告主要聚焦于利益的衡量。例如,在悖论问题中,我们不仅要考虑为两个人而牺牲另一个人是否正当,也要考虑二人是如何出现于路中的。是基于合法的行为,如事故受伤;还是违法行为,如主动挑衅。其次,设若自动驾驶系统具备了自主学习功能,那么将来它们将比人类更具智慧,讨论对它们的规制,无疑显得遥远且无意义。希尔根多夫教授以微软自动聊天机器人Tay为例,对冯军教授的第二点予以回应。Tay可投用户所好,根据反馈不断调整聊天风格。但在用户的恶意引导下,她变成了一个种族主义者、性别歧视者。设若她出言不逊,导致他人受辱甚至死亡。此情形下,如何追责就成为一个值得深究的问题。因此,讨论机器自主学习的规制,并不是一个遥远的问题。
会议闭幕
讲座持续近三个小时,在讲座临近尾声之际,冯军教授代表全体师生对希尔根多夫教授的精彩演讲,以及在座师生的积极参与,表示衷心感谢。希尔根多夫教授的演讲与回答立足前沿,深耕理论,条理清晰,重点突出,与会学者与学子均感受益良多。