摘 要:在自动驾驶汽车的交通事故中,法律和监管政策的设定应当回应由谁承担责任以及分别应承担怎样的责任。在立法之前,需要充分考虑智能技术对道德主体和道德责任的重塑。首先,面对自动驾驶汽车事故处理方式,可以选择是否诉诸于道德归责,而避免道德归责的补偿方案和统一规则方案都面临理论困难,因此,讨论道德归责的方案是必要的。相较于传统汽车的道德责任问题,自动驾驶技术某种程度上改变了汽车与使用者的边界及二者的关系。面对智能技术可能的自主道德决策,汽车自身作为机器还无法跨越技术和概念框架的困难,不能作为道德责任的归责对象;而基于道德运气,如果使用者决定使用一辆自动驾驶汽车,表明他知道用车要承担的风险,一旦发生事故,使用者负有部分责任。
关键词:道德责任;自动驾驶汽车;使用者
一、归责的困难
2016年以来人工智能的突破式发展促进了自动驾驶汽车商用化,进而对人类的伦理规范提出新的挑战。2018年10月31日,中共中央政治局就人工智能发展现状和趋势举行集体学习,习近平总书记强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”自动驾驶汽车的商用化趋势迫使人类面对以下至关重要的伦理问题:我们应当把多大的控制权交给自动驾驶汽车?如果自动驾驶汽车在公共道路上致人伤亡,道德责任应如何分配?
2016年5月,一辆特斯拉电动车在美国佛罗里达州以自动驾驶模式行驶时与一辆横穿公路的货车相撞,导致电动车车主丧生,这是全球首例自动驾驶汽车的交通死亡事故。经过长时间调查,2017年1月,美国公路交通安全管理局(NHTSA)公布了调查报告,结果显示,事故原因与特斯拉的自动驾驶系统无关,这也意味着特斯拉公司无需承担相应法律责任。2018年3月19日,在美国亚利桑那州,一辆Uber自动驾驶汽车撞到一名女性行人并致其死亡,这则是世界范围内首例自动驾驶汽车撞击行人死亡事件。事件发生时,Uber自动驾驶汽车配有安全驾驶员,且处于自动驾驶模式。这辆Uber自动驾驶汽车在最高时速35英里的道路上以时速38英里行驶,安全驾驶员没有收到任何信号,因此未能采取刹车措施。根据警方调查,这起事故的主要责任可能不在Uber自动驾驶汽车。
这两起事件已经显示出了自动驾驶汽车所引发交通事故的法律责任界定的困难。完全自动驾驶汽车实现商用后,一旦发生交通事故,势必挑战现行的事故归责体系,其中包含了设计、制造、用户使用的多重关系。德国交通部的《自动化及网联汽车的伦理规则》(Ethics Commission Automated and Connected Driving)明确提出:“在自动及网联化驾驶系统中,原先由人承担的责任,转移到了制造商、技术系统运营商以及基础设施、政策及法律的决策机构之上。关于法律责任的规定,以及在实务中的具体操作,必须充分考虑到这一转变。”[1]
Alexander Hevelke指出,即使自动驾驶汽车只能减少部分道路交通的伤亡,政府也有义务推动其发展,然而一旦无人驾驶汽车上路,就必须明确谁对可能产生的交通事故负有责任[2]。Nick Belay分别考察了制造商、个人、保险公司及立法机构在自动驾驶汽车的事故中所发挥的不同作用和承担的不同法律责任,他认为在无人驾驶汽车上市之前,必须要通过法律明确“行驶权”和“驾驶权”问题,在此基础上,文章进一步提出新的法律框架应以保护车主或车中乘客的利益为基本原则[3]。与其结论类似,Sabine Gless首先承认了当前人工智能的发展在各个领域所产生的机器决策现象,但同时认为,机器还无法作为现行法律的惩戒对象,任何人如果允许机器做出自主决策,都应该预见到机器总会失控并且应当为此承担责任[4]。Jamy Li等设计了两个网络思想实验,考察了美国公众对于自动驾驶汽车所涉及的事故责任持有怎样的态度。结果显示,公众倾向于认为自动驾驶汽车比人类驾驶者应承担更少的责任,并且他们倾向于认为汽车制造商和政府应承担相应的法律责任,因为他们无法将汽车视作能够为自己行为负责的独立道德主体。该研究还显示,公众倾向于认为应当由相关的伦理研究者和汽车制造商为自动驾驶汽车设计合理伦理和法律规范[5]。Mark Coeckelbergh持有更加激进的态度,他认为人工智能技术运用于汽车后,重新塑造了车主和其他交通事故参与者的主体性,通过发现这一经验变化的道德蕴含,文章认为这从根本上改变了“责任”的意义,如果承认或部分承认了机器的道德主体地位,自动驾驶汽车自身也作为主体参与到未来可能的交通事故中,那么事故的道德责任界定将被彻底颠覆[6]。
一旦自动驾驶汽车发生交通事故,应当由谁承担责任以及分别应承担怎样的责任?与其相关的事故风险应当如何分配?对这些问题的回答都直接影响到自动驾驶汽车监管及事故追责的立法原则[7]。本文将首先审视对于自动驾驶汽车事故是否真正存在道德归责的问题,是否需要通过归责的方式才能解决未来可能面对的自动驾驶汽车的事故问题;然后,将讨论在智能系统做出自主道德决策背景下新技术对责任主体的重塑。具体来说,本文将分别回答:具有智能决策系统的汽车能否成为道德归责的对象;与传统汽车事故的道德归责相比,自动驾驶汽车的使用者将如何承担道德责任。
应用型本科建设最早是在2014年教育部提出,要将全国1 000多所本科院校中的一半向应用型大学转变。应用型本科教育强调培养学生的实践能力和操作技能,它的提出使得高等院校的本科教育不再只关注理论教学和科研,转而更加重视应用型人才的培养。为贯彻落实教育部提出应用型本科教育的转型发展,武汉商学院在2015年申报并获批成立国际商务专业。该专业的目标是培养学生具备较强的社会适应能力、国际商务交际能力、商务素养、商业技能和处理商业实务的能力。本研究选择国际商务专业为研究对象,探索国际商务专业在校企合作背景下培育高素质技能型人才的模式。
二、是否存在道德归责问题
在考察自动驾驶汽车的道德责任主体和道德责任分配之前,需要首先考虑是否真的存在归责的问题?在自动驾驶汽车的可能事故的处理中是否存在其他替代方案?自动驾驶汽车通过取代并淘汰驾驶员的方式将从根本上改变驾驶这项实践活动的性质。对于自动驾驶汽车来说,在编程没有携带恶意、软件也没有被破坏的情况下,要将它们所造成的危害归类为道德错误是很困难的。当我们决定在道路交通中引入自动驾驶汽车,也就包含了对其所造成意外伤害的接受事实。如果自动驾驶汽车造成的意外伤害不能被视为道德上的过错,那么就可以断言这种责任与自动驾驶车辆的运作无关。虽然自动驾驶汽车可能对造成某种因果意义上的特殊伤害负有责任[8],但应以自然常态的方式看待这种伤害。在这种情况下,对事故更合理的处理方式似乎是尽量弥补所形成的伤害,即对自动驾驶汽车的伤害采取补偿。
统一算法规则的设定避免了个体主义的归责难题,却可能将算法规则中对某一群体的结构性歧视嵌入整个系统并延续下去。Noah Goodall提出了统一汽车“道德算法”可能面临的一类悖论:假设一辆自动驾驶汽车马上要撞到障碍物,它可以选择向左或向右急转弯,但左边的“目标”是一个戴头盔的摩托车手,右边的“目标”则不戴头盔,这种情况下应当如何为汽车编程呢?[11]根据直觉,我们会预设算法让汽车撞向那个在撞击后生存几率最大的目标,即戴头盔的摩托车手。从统计数据来看,不戴头盔的车手更有可能死于车祸,一个好的算法当然应该将概率计算在内,因为任何一家汽车制造商都不希望自己的车发生致命的事故。但这一选择显然是不公平的,一个车手负责任地戴上了头盔,却要受到我们所预设的“道德算法”的“惩罚”,而不戴头盔者却获得了生机,要知道在绝大多数国家不戴头盔都是违反交通法规的。这种“算法歧视”不但违反了道德原则,而且不利于交通管制。随着自动驾驶汽车的商用,此类“道德算法”可能导致一些类似摩托车手的人为了不被当成“靶子”而降低其道路安全防护措施。
通常在讨论关于责任的问题时,所有这些都是由伦理学家和法学家从第三人称的角度来判断的。然而,责任也可以通过一种不同的、更社会化的、关系性的方式来理解。例如,它可以理解为可回答的[12],而且在一般情况下责任总是相关的,它是对某人的责任[13]。下面我们将沿着这样一种对责任理解的路径进一步发展一种认知和社会关系的责任概念。可以说,责任的要点是我们对他者需要负责。因此,我们不应该把注意力集中在责任人身上,而应该集中在责任人所需要负有责任的对象身上。而这里的前提条件是:存在我与他者的关系,并且我能够意识到这种关系。在这种关系中的他者可以简单地说是人,或者可以有额外的和特定的关系,而特定的关系将影响到我所承担的特定责任。例如,我可能不仅有责任不伤害别人,而且也有责任为那个人提供照顾,因为他是我的家庭成员。交通参与者作为人类不应该伤害别人,这是交通参与者的特定关系赋予他们的特定责任。例如,作为一名司机,我负责我的车里其他人的安全,以及可能参与交通的行人的安全,我将采取行动来确保我所涉及的两种人的安全。此外,在所有这些情况下,如果我和另一个人之间确实存在一种道德上的关系,并且我也知道这种关系,我才会承担这种责任。例如,如果有人把一个活人的特征都伪装起来,躺在漆黑的道路上,司机甚至都发现不了他,那么就不可能为撞他的行为负责了。
今年8月,张培林作为西部唯一代表入选全国县域医院院长联盟医疗保障与支付制度管理学组专家,在全国大会上提出的五个机制联动得到国家卫生健康委的肯定。
补偿机制应该尽可能地消除受害人所受的损害,并且采取保险或其他集体化减轻风险的方案。从这个角度来看,受害者可以随时获得足够且合理的补偿,而不需要诉诸于法律机制,法院也不需要扩大现有的责任模式,以确保受害者能得到补救。因此,将责任排除在讨论之外的好处是在不损害法律原则的前提下,可以顺利地解决实际问题。然而,尽管有充分的理由可以完全回避棘手的责任问题,但由于围绕自动驾驶汽车行驶自由决定权的可能原因有很多,自动驾驶汽车引起危害的原因界于伤害与破坏之间。换句话说,道德和法律问题的产生是汽车自主运行的直接结果:在众多行动方案中致力于一种方案,并根据一套参数做到这一点。因此,自由决定权是自主性的关键,并通过建立自动驾驶汽车的参数和实际行为程序引入责任概念。然而在实际运行中,自动驾驶汽车的功能性和自主性却由于自主车辆在行驶中伴随的潜在危害而被消解了。实际上,不寻求道德责任而实施补偿机制的前提是,自动驾驶汽车事故并不掺杂任何制造商或编程人员的失误,也并非由使用者或其他传统车辆的驾驶员的错误所引起。换句话说,赔偿机制是基于自动驾驶汽车的完全自主性,道德上对自动驾驶汽车的不追责是建立在其承担完全道德责任的基础上,但是,人工智能的道德能动者并不存在[9]。
综合考虑这些因素,自动驾驶汽车的引入可能会带来系统性且基于规则的缺陷,这些缺陷可能会形成算法歧视现象。避免归责的统一方案根植于孤立的、去形式化的思想实验,忽视了现实世界的结果,这些结果来自于从个体化的、基于行动角度出发的聚合偏好。这一方案将目光集中在单一情景的原因和后果上,忽略了结果产生模式的多样性,而这些模式是通过孤立伦理学思想实验所无法预测的。以上方案的伦理视角使得累积效应无法被识别,因此,累积效应可能会导致法律上的错误,而最终会造成伤害、甚至法律问责的困难。无论是补偿方案还是统一规则的方案,都试图避免面对自动驾驶技术带来的归责难题,却都会带来更加严重的理论困难,更为重要的是,以上的避免问责方案很难应对法律责任。因此,对于自动驾驶汽车的事故责任,在制定明确的法律法规之前,第一步或许是发起一场对自动驾驶汽车道德责任的公开讨论,让参与各方认清问题所在。
三、汽车自身能否作为归责对象
随着汽车自动化程度的不断提升和商用化应用,人们对自动驾驶汽车的事故归责也开始从传统的驾驶员逐渐转移到车辆自身。而车辆即使具备智能特征也仍摆脱不了物的属性,那么自然也不可能拥有与人同等的责任主体地位。在自动驾驶汽车事故中,讨论由汽车自身承担责任在目前看来似乎是一个荒谬的问题。而且,公众似乎也很难在心理上接受一场交通事故的责任人是一辆汽车,当然这一点还需要社会心理学的经验研究结论的支撑。关于自动驾驶汽车道德责任的讨论不应局限于使用自动驾驶汽车及其所谓的客观风险有关的一般责任,也不应局限于汽车的行为、智能、自主性问题,以回应抽象交通状况的客观特征。相反,这些讨论也应该反映出用户体验的转变,即新技术如何重塑用户的主观性,以及由此产生的道德后果。具体来说,讨论自动驾驶技术介入到驾驶行为后所造成的“搅动”,及其对责任主体和责任概念的重塑,从而提出传统的责任概念无法满足当前非完全自主性的自动驾驶汽车的道德追责问题,产生了使用者与汽车自身的责任界定的困难。
以上,我们根据亚里士多德的思路为道德责任设定了认知条件和关系条件,基于目前的技术状况,将自动驾驶汽车作为责任人显然还无法满足认知条件。如果立足于未来技术发展的可能性,承认机器能够控制行为并知道自己在做什么,就将产生一个基本矛盾:如果将汽车视为责任人,那么其他传统汽车的驾驶员将无法与自动驾驶汽车产生道德关联,除非将自动驾驶汽车视为他者;而如果仍将使用者视为责任人,那么鉴于自动驾驶汽车的完全能动性,将导致使用者无法履行责任。因此,在当前的自动驾驶事故归责议题中,机器还无法跨越技术和概念框架的困难,无法作为道德责任的归责对象[14]。
以上这种观点为政策制定提供了依据,这些政策可以通过补偿模式来弥补自动驾驶汽车造成的危害,该模式规避了因果关系造成的责任难题,但因为依赖于过度理想化的前提条件而难以成立。那么,另一种不归责的选择是预设统一的规则或政策,所有自动驾驶汽车均照此行事,那么预先确定的行动准则和政策可能会绕过复杂的责任辩论,这种方式实际上是抛弃了个体主义的责任观念,诉诸于一种集体行动。而行动中的自主决策可以用某种统一的算法来代替,该算法决定了自动驾驶汽车在任何特定情况下的行为,并且可以广泛应用和定期更新[10]。
在使用者可以干预汽车运行的情况下,使用者自然有义务注意道路和交通,并在必要时进行干预,以避免发生事故。相应的,使用者在发生事故时的责任将基于他没有及时察觉异常情况并进行干预。当然,如果是这样的话,自动驾驶汽车将因此失去大部分效用:我们不可能让车辆自己去找停车位,也不可能在需要的时候叫车,不能在喝醉的时候用它安全地回家,甚至不得不在自动驾驶功能运行的时候保持高度警惕。然而,这些问题并不具有直接的伦理意义。
理论上,联立方程(1)和(2)就可以求得不可压缩黏性流体流场的解。但由于N-S方程中有速度的二阶导数,只有在某些特殊情况下才能使方程得到充分简化,求得近似解。
因此,关于归责问题,关键要看以下的两个责任条件是否得到满足:一是责任人必须能够控制行为并知道自己在做什么;二是存在一个或一些能够被责任人感知的他者与其在道德上相关。只有当我们知道我们在做什么并且知道我们在为别人做什么,我们才有可能行使和分配责任,那么研究我们可以知道的东西就变得很重要。例如,驾驶是一种涉及默会知识的技能,我们知道自己在做什么,但也许我们无法向自己和他人解释。这是责任的问题吗?这一疑问在自动驾驶中将变得更为显著。首先,如果我们试图应用亚里士多德的假设条件,自动驾驶汽车可能具有自主做出决策的能力,但基于当前的技术条件,自动驾驶汽车还远没有具备完全的能动性,即它无法“知道”它在做什么,这涉及虚假意识的问题。
当然有人会说,人工智能的突破式发展也许终将解决这一问题。如果我们承认自动驾驶汽车可以满足上述归责的第一个条件,即其能够控制自己的行为并对该行为具有自我意识,那么面对归责的第二个条件时就会产生困难。在使用者与自动驾驶汽车的交互中,如果因为自动驾驶汽车满足了以上第一个条件而将其视为责任人,那么,问题不仅在于没有意识的机器不能感受到责任,不能真正认识到与道德相关的关系,也不能辨识真正的他人,而且人类会将汽车及其行为视为“机器”行为。也就是说,他们根本不会将汽车及其机器驾驶员视为“他人”。这意味着,如果就当前汽车的情况而言,使用者已经感觉不到什么是责任了,而且在自动驾驶的条件下,道德责任的关系条件完全缺乏。除非汽车被认为是他者,否则遇到无人驾驶汽车的人类驾驶员将无法以道德相关的方式与之相关联,而社会关系自治也无法实现。
只要有证据表明,在发生事故的次数方面,人们必须进行干预的系统比自动驾驶车辆的系统做得更好一些,那么就有理由支持这样的义务。如果自动驾驶汽车的出现使事故减少了5%,而让用户承担干预责任将使死亡率再降低5%,那么这似乎就为使用者创造了一种道德义务,即让使用者警惕自动驾驶汽车可能出现的事故。当然,这项干预的责任仍须限于司机可以合理地预测到危险和及时作出反应的情况。此外,这种归责的做法还能够给予技术一个逐步发展的机会,自动驾驶技术可能会渐进式的发展,从目前的自动化水平到更高阶段,再到完全自动驾驶阶段。然而不利的一面是,在这种情况下,身体有缺陷的人或老人并不适合使用自动驾驶汽车。但是,一旦发展到真正的自动驾驶汽车的阶段,它至少和普通的人类驾驶员一样安全,我们就不得不问这样一个问题:我们是否能够在现实中期望用户在紧急情况下进行有效的干预。当然,这个问题只能在经验数据的基础上得出答案。
微课的推广和使用,给我们的数学课堂带来新的变化,枯燥的数学变得生动、多样、有趣,致力于满足学生全面发展的成长需要,改变了低效的教学模式,真正发挥学生学习主动性,有效提高学生团队协作、交流表达的能力。可以相信,微课会把教育更好的带入微时代。
责任的概念是哲学史上一个长期讨论的问题。我们需要分析的是责任的条件:实行和追究责任所需要的是什么?在什么条件下才可以实行和分配责任?亚里士多德的《尼各马可伦理学》中已经对此做了经典的描述。他认为,至少在对自己所做的事情负责的意义上,履行责任要求至少满足以下条件。首先,责任人需要控制自己的行为,如果我们缺乏控制,我们就没有责任。例如我对天气缺乏控制,所以我不对天气负责。相反,我确实可以控制我的车,我要对我的驾驶负责。其次,责任人需要知道他在做什么。例如,如果我在睡觉,那么我对我所做的事情不负责;另一方面,如果我完全清醒,而且我看到我的车正朝一个行人的方向驶去,如果我不改变方向或踩刹车,他很可能会受伤甚至死亡,那么我做任何事情都是有责任的。更普遍的意义上,了解正在做的事情不仅包括知道如何操作一台机器,它还包括了解整个操作环境。
产生上述归责困难的原因,某种程度上是由于人工智能等新技术对传统责任概念的重塑。面对日益提高机器使用及其相关的自主决策情境,越来越难以实现道德责任的认知和关系条件,也就难以进行明确的归责。负责任的机器使用,需要能够应对机器和人类的不同经验特征的责任概念。从这个意义上说,责任概念是将行为者与行动后果联系在一起的纽带。因此,责任概念在很大程度上取决于其关系背景;责任的适用背景为概念的内容和局限性确定了基调。责任的概念可以被看作是一个总体框架,由环境所决定的适当的和相关的概念构成。不同的含义、限制和后果附属于不同的责任概念,这些概念决定了“责任”在任何特定情况下的内容和轮廓。因此,利用这些概念可以调整我们对责任问题的期望,并揭示出设定这些概念固有的可能性的界限。总之,草率继承现有的“责任”概念,可能造成自动驾驶汽车和人类的关系日益脆弱,也无助于缓解对新兴技术的广泛担忧和随之而来的“责任”难题。
四、使用者如何承担道德责任
正如前文所述,作为新兴技术的自动驾驶在一定程度上重塑了汽车与使用者的内涵界线以及二者之间的关系。因此,对使用者道德责任的讨论也可以区分为两种情况:使用者可以介入汽车控制的非完全无人驾驶和使用者无法介入汽车控制的完全无人驾驶。
在抓核桃产业发展的同时,要积极引导,优化发展模式,一是通过土地流转,鼓励大户承包,实现规模化发展;二是采取专业合作社模式,分户种植,集体经营。提高组织化程度,使技术指导、信息传递、生产资料供应等服务功能于一体,有效地解决政府办不了,农户办不好的事情,使农户和政府在市场经济中获得“共赢”,不断提高核桃产业化经营水平。
如果仍将使用者视为责任人,那么,与机器交互的人类将难以了解新的行为和环境,他们可能无法知道汽车的“意图”。而且,如果他们遇到了机器,他们将很难去承担责任。具体而言,虽然使用者很明显能意识到使用自动驾驶汽车在一般情况下是危险的,但在驾驶的特定情况下,使用者显然是无法控制机器且并不知道机器真正在做什么,更不用说了解环境及其与道德有关的特征。在这种情况下,用户不再是司机,而是成为乘客,而乘客对司机所做的事情不负责,同时司机已被一台机器取代。这意味着,所有能动性都被转移到机器身上,作为自动驾驶汽车的使用者,我们既不能履行责任,也不能将道德责任归于我们自身。
然而,事故通常并不容易预见,尤其是如果使用者没有明显的疲劳、愤怒或分心的情况下。因此,可能很难识别自动驾驶汽车可能发生的危险情况,通常自动驾驶汽车无法控制,更难及时干预这些状况。如果驾驶员必须干预的问题往往是可预见的,这就不是问题。但是,如果可能发生的情境已经被写入了系统算法,而使用者在没有事故发生的危险情况下就替换了系统,而可能由此导致更危险的情况[15]。随着自动驾驶汽车的复杂程度不断提高,使用者干预导致的事故可能会更多。要知道,完全自动驾驶的汽车只有在比一般人驾驶更安全的情况下才会进入市场。如果使用自动驾驶汽车的事故数量较少,那么有闲散精力的用户就不太可能完全集中注意力,这就造成了一种两难。因此,与纯粹的自动驾驶相比,只要随时观察道路并在危险情况下进行干预的责任能够减少交通事故,这种道德归责的做法就是合理的。当然,我们此处讨论的使用者承担干预责任的前提条件能否在实践中成立还需要经验数据的支撑。
1.第一种不健康的消费心理是盲目、跟风的心态,年轻人受到个人阅历的影响,很难拥有独立自主的消费认识。在选择消费行为时,往往会受身边人的影响,比如看到周边有人带高端的智能手机,也会要求长辈为其购置手机,这一盲目的消费心理,不仅加大了经济支出,也影响了自身的健康成长。
当自动驾驶技术发展到完全无人驾驶阶段,使用者无法对汽车进行操作的情况下,使用者对可能事故还是否承担道德责任呢?此处,我们认为,无论使用者能否有效干预自动驾驶汽车的实际运行,他们都对相关事故承担一定的道德责任,这种责任即来源于“使用者”这个概念,只要他们决定使用自动驾驶汽车就承担了可能发生事故的道德责任。理由是,使用者冒着使用有发生事故风险的汽车,并知道和接受了它可能造成事故的风险,使用汽车对本人和他人都构成威胁。我们越频繁地使用汽车(特别是在没有必要的情况下),即使我们尽力去安全驾驶,我们也越可能让别人处于危险之中。这是一个被哲学家们忽视的道德问题。Douglas Husak认为,从人驾驶汽车到智能系统驾驶汽车的转变不太可能改变这一点[16]。当然,驾驶自动汽车出事故的人除了不走运以外,与其他自动驾驶汽车的用户并没有任何区别。如果我们假设自动驾驶汽车的使用是更安全的选择的话,那么他们起码比使用“传统”汽车的人会做得更好。
为了让使用者对事故本身负责,我们必须假定他的坏运气与道德相关,这是Thomas Nagel的一个假设。赞成真正的道德运气的论点具有以下的结构:首先,道德评价是没有争议的,但是部分依赖于机会。由于所做事情的具体后果超出了行为者的控制范围,对他所做事情的道德评价似乎也取决于他无法控制的事情,然而这却是一个偶然性的问题。例如,一个人在开车过程中,遵守交通规则、没有喝酒且注意力很集中,但还是发生了交通事故,原因是一个孩子从一排停在街边的汽车后面突然跑到道路中间,司机无法及时停车而造成孩子遇难。Nagel对这种情况的解释是:如果司机完全没有过错,他会对自己在事故中扮演的角色感到很糟糕,但不必责备自己。因此,这个例子还不是道德上的坏运气[17]。
此即为色散-耗散条件的最终表达式. 若离散格式使r偏大, 则伪波可能会污染数值解. 这些伪波偏离精确的对流波, 行进相当长距离. 另一方面, 若r偏小, 则数值解可能会避免伪波, 但耗散误差将超过所必需的而影响可分辨尺度. 由r确定的最优化条件保证了伪波成分的色散和耗散之间的合理平衡.
根据Nagel的观点,只有当司机在一开始就做错了事情,才有可能与道德运气相关。我们只需要为上述例子加入一个前提条件,即司机粗心驾驶,比如速度过快。那么,当孩子遇难后,司机同样会感觉很糟糕,但同时他会意识到如果他开得小心一点,也许孩子就不会死而只是受伤。Nagel的立场是,在这种情况下,无论他是否撞到了孩子,都会造成道德上的差异。粗心驾驶给了些许责备自己的理由,但如果粗心驾驶导致了一个孩子的死亡,责备自己的理由将是非常明显的。因为司机无法预判他的粗心驾驶最终是否会导致交通事故,这似乎就形成了一个真正的道德运气的典型例子。
随着电力企业宏观改革的深入,为适应市场经济发展要求,电力企业必须开展管理创新,坚持与时俱进原则,努力提高企业核心竞争力。从电力企业的实际出发,明确管理中的不足,不断探求适合企业的先进管理体系。另外,坚持以人为本的管理理念,充分调动员工的积极性与自主性,发挥其创新作用。同时搭建信息一体化平台,并确保信息的安全性,以此来提高管理的效率。通过引进先进的管理服务,更好地适应市场需求,赢取市场的领先优势。
以上Nagel的立场基于这样一种假设:在无过失司机和有过失司机之间划清界限是可能的,然而,要遵守规则、小心驾驶只会降低他人受到伤害的风险,但却无法降低为零。即使限制其他人的风险,但其他人受到伤害的风险仍然不会降低到零。出于同样的原因,如果一个人使用一辆复杂的自动驾驶汽车发生事故,使用者至少负有部分责任,因为他决定用车时,完全能意识到他可能会撞到其他人。这意味着,如果他的车撞上了另一个人,那么任何一个司机都不会“绝对没有过错”,这是他知道用车要承担的风险。当使用车辆会伤害他人时,某种责任总是可以在道义上得到证明。从我们的直觉出发,这可能不是一个大问题,但对于Nagel式的道德运气观点来说却是很关键,因为在他看来,只有当使用者“绝对没有过错”时,坏运气在道德上才是无关紧要的,而驾驶行为从来都不是这种情况,无论是传统驾驶还是自动驾驶。
以上我们讨论了在非完全无人驾驶和完全无人驾驶情况下使用者的道德责任。在有责任干预的情况下,这取决于司机是否有机会有效地预测和预防事故,如果使用者从来没有真正地防止事故发生的机会,他不应对此负责。对此,德国交通部的《自动化及网联汽车的伦理规则》明确要求:“必须明确区分无人驾驶系统在工作还是拥有否决权的驾驶员在负责。在非无人驾驶系统中,人机接口的设计必须在每一刻都能清晰辨别:哪一方应该拥有哪种权限,尤其是哪一方应该掌握车辆的控制权。对权限以及相应责任的分配,应该被记录和保存下来,如按照时间点及访问规则的形式。这一点尤其适用于人与系统之间的联接程序。应该形成一套联接流程、以及数据记录的国际标准,以确保在汽车与数字技术的国际推广中,协议或相关记录文件的兼容性。”[1]以上这种干预的归责方式立足于自动驾驶技术发展的现实情况,引入了讨论归责问题的“临时”方案。而一旦自动驾驶汽车发展到了人们无法再有效干预的地步,那么这样做的反事实义务在道义上就是站不住脚的。即使自动驾驶汽车的使用者无法影响汽车的运行,也应该要求他们对这类车辆造成的任何损害负有集体责任。但是,这种责任不应超过使用车辆所承担的一般风险的责任,而实现这一目标最简单有效的方式就是税收或强制保险。
五、结 语
在自动驾驶汽车可能面临的交通事故中,以前由使用者承担的责任,转移到了制造商、技术系统运营商、使用者、汽车智能系统以及政策和法律的决策机构上。关于法律责任的规定需要以这一转变为基础,也就是要回答在自动驾驶汽车交通事故中,应当由谁承担责任以及分别应承担怎样的责任。在立法之前,需要充分考虑相关参与各方的道德责任。首先,在讨论自动驾驶汽车事故处理方式时,我们可以选择是否诉诸于道德归责。避免道德归责有两种方案——补偿方案和统一规则方案。补偿方案是基于自动驾驶汽车的完全自主性,道德上对自动驾驶汽车的不追责是建立在其承担完全道德责任的基础上,而基于当前技术发展还无法成立;统一规则方案避免了个体主义的归责难题,却可能将算法规则中对某一群体的结构性歧视嵌入整个系统中并延续下去。两种避免道德归责的方案都面临理论困难,因此,参与者承担一定的道德责任是必要的。汽车自身作为机器还无法跨越技术和概念框架的困难,不能作为道德责任的归责对象;而基于道德运气,如果使用者决定使用一辆自动驾驶汽车,表明他知道用车要承担的风险,一旦发生事故,使用者至少负有部分责任。
参考文献:
[1] Federal Ministry of Transport and Digital Infrastructure. Ethics Commission’s Complete Report on Automated and Connected Driving [EB/OL]. [2018-01-05]. https:∥www. bmvi. de/SharedDocs/EN/publicat-ions/report-ethics-commission. html?nn=187598.
[2] HEVELKE A,NIDA-RÜMELIN J. Responsibility for crashes of autonomous vehicles:an ethical analysis [J]. Science and engineering ethics,2015,21(3):619-630.
[3] BELAY N. Robot ethics and self-driving cars:how ethical determinations in software will require a new legal framework [J]. The Journal of the Legal Profession,2015,40(1):119-155.
[4] GLESS S,SILVEMAN E,WEIGEND T. If robots cause harm,who is to blame? self-driving cars and criminal liability [J]. New Criminal Law Review,2016,19(3):412-436.
[5] LI J,ZHAO X,CHO M J,et al. From trolley to autonomous vehicle:perceptions of responsibility and moral norms in traffic accidents with self-driving cars [J/OL]. SAE Technical Paper 2016-01-0164,[2016-04-05]. https:∥saemobilus.sae.org/content/2016-01-0164/.
[6] COECKELBERGH M. Responsibilityand the moral phenomenology of using self-driving cars [J]. Applied Artificial Intelligence,2016,30(8):748-757.
[7] COCA-VILA I. Self-driving cars in dilemmatic situations:an approach based on the theory of justification in criminal law[J]. Criminal Law and Philosophy,2018,12(1):59-82.
[8] HART H L A. Punishment and Responsibility:Essays in the Philosophy of Law[M]. Oxford:Oxford University Press,2008.
[9] WYNSBERGHE A,ROBBINS S. Critiquingthe reasons for making artificial moral agents[J/OL]. Science and Engineering Ethics[2018-02-19]. https:∥doi.org/10.1007/s11948-018-0030-8.
[10] CONTISSA G,LAGIOIA F,SARTOR G. The Ethical knob:ethically-customisable automated vehicles and the law[J]. Artificial Intelligence and Law,2017,25 (3),365-378.
[11] GOODALL N. Ethicaldecision making during automated vehicle crashes[J]. Transportation Research Record,2014,24(1):58-65.
[12] DUFF R A. Answerability for Crime:Responsibility and Liability in the Criminal Law[M]. Oxford,UK:Hart Publishing,2007.
[13] COECKELBERGH M. Criminals or patients? towards a tragic conception of moral and legal responsibility[J]. Criminal Law and Philosophy,2010(4):233-44.
[14] ETZIONI A,ETZIONI O. Incorporating ethics into artificial intelligence[J]. The Journal of Ethics,2017,21(4):403-418.
[15] DOUMA F,PALODICHUK S A. Criminal liability issues created by autonomous vehicles[J]. Santa Clara Law Review,2012,52(4):1157-1169.
[16] HUSAK D. Vehicles and crashes:why is this moral issue overlooked?[J]. Social Theory and Practice,2004,30(3):351-370.
[17] NAGEL T. Moral luck[M]∥WATSON G. Freewill. Oxford:Oxford University Press,1982.
TheDilemmaof“MoralResponsibility”ofSelf-drivingCars
BAIHuiren
(SchoolofHumanitiesandSocialSciences,Xi’anJiaotongUniversity,Xi’an710049,China)
Abstract:In traffic accidents involving self-driving cars, the legal and regulatory policies should be set to respond to whoever is responsible and what responsibility they should assume. Before setting out any legislation, it is necessary to fully consider the reshaping of moral agents and moral responsibilities by AI. First of all, in the face of a self-driving car accident, we can choose whether to resort to moral responsibility or not. But the compensation scheme and unified rule scheme are not theoretically based. Therefore, it is necessary to discuss the scheme of moral responsibility. Compared with the moral responsibility of traditional cars, self-driving technology has changed the boundary between the car and the user and the relationship between the two. With the possible independent moral decision-making of AI, the car itself as a machine cannot go beyond the technical and conceptual framework and become the object of moral responsibility; and based on moral luck, if the user decides to use a self-driving car, it indicates that he knows the risks to be taken by the car, and in the event of an accident, the user is at least partly responsible.
Keywords:moral responsibility; self-driving cars; users
DOI:10.19525/j.issn1008-407x.2019.04.003
中图分类号:B829
文献标识码:A
文章编号:1008-407X(2019)04-0013-07
收稿日期:2019-01-04;修回日期:2019-03-05
基金项目:国家社会科学基金重大项目:“大数据环境下信息价值开发的伦理约束机制研究”(17ZDA023);中国科协高端科技创新智库青年项目:“自动驾驶汽车的伦理规范、法律边界与监管政策研究”(DXBZKQN2017041)
作者简介: 白惠仁(1988- ),男,内蒙古巴彦淖尔人,副教授,博士,主要从事科技伦理研究,E-mail:bhr016@xjtu.edu.cn。
标签:汽车论文; 责任论文; 道德论文; 使用者论文; 事故论文; 哲学论文; 宗教论文; 伦理学(道德哲学)论文; 其他伦理规范论文; 《大连理工大学学报(社会科学版)》2019年第4期论文; 国家社会科学基金重大项目:“大数据环境下信息价值开发的伦理约束机制研究”(17ZDA023)中国科协高端科技创新智库青年项目:“自动驾驶汽车的伦理规范; 法律边界与监管政策研究”(DXBZKQN2017041)论文; 西安交通大学人文社会科学学院论文;