张正清:构建以接受性为核心的人工智能伦理论文

张正清:构建以接受性为核心的人工智能伦理论文

1 人工智能政策与规范之间的差异性

2019年中国政府工作报告指出: “打造工业互联网平台,拓展‘智能+’,为制造业转型升级赋能”,并提出 “深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”这是我国政府连续三年在政府工作报告中提及人工智能的发展政策,2017年提出 “把智能制造业作为主攻方向”,2018年又提出 “发展智能产业,拓展智能生活”。人工智能的战略意义还体现在对于社会问题的治理上,每年消耗在社会问题的定性与分析上的成本是惊人的,而人工智能基于对社会信息的高效处理,可以给出更为经济、准确的方案,从而优化政策制定过程[1]。可见,人工智能的生产化、社会化是并行展开的,如何发展实用、适用的人工智能,是我们的着力点。

不同于人工智能产业的蓬勃发展,人工智能本身的规范问题没有得到与之相匹配的重视程度。在政策制定层面,伦理规范往往只是锦上添花的部分或者实现目的的手段。法国政府呼吁考虑世界范围内已有的人工智能政治、伦理规则,为的是能在产业发展中表达自己的规则,确立领先地位[2]。善的人工智能社会 (Good AI Society)计划也表明[3],在美国、英国、欧盟的人工智能政策制定中,政府、企业与研究者的角色与责任是目前最关注的内容。人工智能规制架构所指导的框架、监管、流程与部门规定,往往侧重于行业标准和产品设计[4]。

不同于政策的偏重,伦理学的研究对于人与机器的互动更关注。从计算机、人工智能的伦理研究过程看,在20世纪80年代中期,人们就开始争论计算机是否产生出控制人类行为的技术路径,从而引发人们对于计算机伦理问题的关注;在20世纪90年代,政策制定者们提出了关于计算机犯罪、数据安全、数字专利和电子商务的第一批规定。2000年以后,一系列道德困境出现了,在机器人产业和机器学习中,人们提出了新的应用伦理学领域,例如 “机器人伦理学”和 “机器伦理学”[5]。从2016年开始,人工智能形成了较为完整的伦理规约框架,规范人工智能的四个治理方向已初步形成,关注于人工智能的社会意涵、人工智能的技术影响、人工智能的法律与规范、人工智能的伦理[6]。即便存在这样一些规范框架,产业政策与伦理规范之间依然存在侧重、发展与规制上的巨大差异。

2 发展错位与内外差异是产生分歧的主要原因

发展错位与内外差异性使得学界与产业界在一些核心议题上存在争论。例如,目前学界认为,未来社会存在人工智能取代智力型工作的递进阶段[7],当经历过这几个阶段之后,处于工作岗位上的人会被人工智能完全替代。同样,还有一种说法,认为有些职业存在被替代的风险,甚至有人预测出了各职业被人工智能取代的概率[4]。然而这些研究与论述很少体现在政策规范文本与产业发展规划之中,导致这种理论关注与现实规范不对等的原因有以下两个:

(1)行业与学界的发展错位。技术先行、伦理配套是一系列新兴技术发展的事实过程。每一代新技术的产生都是在其应用到一定阶段时,人们才能真正认识到伦理问题的重要性。历史地看,伦理实现规范功能的滞后性是普遍现象,对于现在的人工智能产业也依旧如此。但是新兴技术又呈现另一种特殊性,例如人体增强技术、纳米技术、人工智能技术,在尚未在产业界应用之前,就已经引起了广泛的伦理讨论。这种现象导致了一种行业与伦理讨论的分离,目前在人工智能的伦理讨论中就出现了这种分离。在人工智能的伦理研究中,存在一种未来主义的观点,其伦理思考与规范建立在当下尚未出现的技术条件之上。例如在亲密关系机器人的伦理反思中,很多学者指出可以顺畅交流、进行肢体动作互动的机器会替代目前的家庭成员;而社会机器人的从业者指出,目前的商用机器人在外观上依然无法实现被人完全接受的水平,更谈不上替代人类家庭成员,因此主张的机器道德能力、道德价值是有问题的[8]。这种冲突还体现在强-弱人工智能的分歧、长期-短期人工智能发展的分歧之中。强人工智能或许可能拥有类人的思维能力,或者与人不同的思维能力,但是已经成为很多学者讨论的起点;而弱人工智能强调智能机器只是服务人性,而不是创造一种新的人性,智能机器有一些辅助人智力的能力即可[9],这是政策制定的认识基础。这些分歧导致规范性研究与产业研究之间沟通的障碍,也造成了政策、战略与行业规范之间的错位。

(2)在现行道德规则的框架下,把共识性知识作为另一个重要的影响因素。对常识性道德知识进行技术层面的规范化,要优先于对传统伦理学规则的模拟。在机器行为与机器学习的研究中,一直存在两种截然不同的路径,如暴力法与训练法、事理图谱与知识图谱等。虽然孰优孰劣存在争议,但都体现了人工智能内在的逻辑方式。对于道德行为来说,目前很多学者仍然使用规则优先的道德推理方式,强调从一般的伦理原则到具体行为的推论模式。实际上,伦理学内部对于基本规则的讨论尚未定论,各个规则之间也充斥着矛盾。如果以某种伦理原则为基础,如功利主义,不但会在解释行为的一致性上产生问题,更会使得持有其他伦理原则的互动者无法接受。设计道德机器与伦理教育有内在的一致性,问题不是在于学习了多少伦理理论与原则、规范,关键在对于社会普遍接受的行为如何理解与执行。道德沟通与互动不是基于双方行为的伦理学来源,而是基于行为本身。这不是在主张一种后果主义的评价标准,而是要在道德动机、道德判断、道德说明、道德行动的全过程中,把共识性道德知识放在首要地位。因此,人工智能的伦理逻辑应该是模仿与学习,这与目前的伦理教育的内核是一致的,更容易被社会成员所接受。在这种理念下,内在进路所带来的设计与评价的矛盾就可以被解决。内在进路对伦理规则的内在化,是建立于相信由规则推导出的行为的正确性,以及出于接受规则而接受行为的推论。而人对机器的接受是极为苛刻的,人与人之间在伦理规则上的让步与妥协,很难出现在人与机器之间的关系上。因此,外在进路所主张的行为评价与道德期望就变得更加合理。

3 以接受性、共识性为核心的整合框架

从战略、框架走向具体规范的中间环节,要求考虑具体的行动方案。这种行动方案的重点在于消除技术现实与伦理规范之间的分歧,让技术设计者与政策制定者之间达成共识,并让这种共识可以被社会一般成员所接受。基于这个目的,我们提出一些规范性的取舍方式,为人工智能政策制定提供建议。

(1)在把道德能力作为评价道德机器的基础标准之外,进一步关注人工智能的道德接受性。首先,一项技术的社会接受程度和道德可接受性之间存在关联[11],对于制定人工智能的伦理规范来说,对于接受性的考察远比对于智能能力的评估重要。人工智能会有何种程度的道德表现,不是一个具体实行的道德规范需要考虑的问题。因为对于目前阶段的人工智能来说,我们规范的对象应该以智能能力最低限位为标准。一味假设人工智能在将来的超前发展状况、预测人工智能在未来可能产生的影响,会影响那些使用情景更普遍化的社会机器。人工智能目前行为的合理性尚在建构之中,我们无法通过现行的人类自身的伦理规范来很好地规定人工智能。此时人机互动的社会接受度就是制定人工智能道德规范的标准,因为只有被社会广泛接受的行为才有可能是道德的行为,这是一条自下而上的决策路线。其次,人工智能伦理规范应该是全社会都接受的规范,而不是专业团体内部的规范。目前,各个与人工智能产业相关的共同体都在试图制定规范人工智能的行业标准,这是有益的尝试,但是这些行业规范不能直接转化成人工智能的全社会道德规范,因为行业规范主要站在设计者的角度来思考人工智能的伦理问题,这种产品、服务层面的规范无法直接使用在人机交往的现实活动中。更为深层的原因是,人工智能的设计者、生产者目前是以人类的智能定义为目标来行动的,因此会产生类人的道德规范或者混杂着与人相关的道德规范。对于更广大的社会成员来说,他们并没有智能模拟和实现层面的策略性考虑,所以专业团体内部规范会潜移默化地塑造社会成员,这有失伦理规范的公平性。因此,人工智能从业者应该谨慎地推广本领域内部共识标准,应该尝试转译和还原内部标准,以形成更普遍的标准,从而获得更广泛的社会接受程度。

在其他花色苷研究中,特别是在复杂样品中异构体的测定中,离子迁移质谱(IM-MS)是一种高通量和高灵敏度的新分析方法。IM-MS的工作原理是根据大小、形状和电荷来分离气体离子[32]。通常采用LC-MS进行进一步分析,鉴定IM-MS分离的化合物组分。

(2)内在与外在两种进路的分歧。人工智能的伦理研究与哲学研究侧重对心智、语言、意向性等内在性问题的讨论,而规范、政策与战略规划关注于人工智能的社会表现与互动,这导致了伦理规范与技术现实之间的内外分歧。对于人工智能这种特殊技术来说,其对人类社会深度、自动 (自主)的参与,使人看到了自身行使道德行为的影子。虽然对于每个技术物,都有合伦理设计的要求,但是对于人工智能来说,符合伦理不只是从一个被动的参与者角度来讨论,更是一种主动的、游走在受控与非受控之间的模糊对象。正是这种模糊性,使得人工智能很早就被人发现存在伦理问题,因为我们无法像对待一般的电器那样处理智能机器。现在的技术确实制造了一些可以自我决策的自动机器,但是其自主性还非常有限,除非机器有一种类人的道德能力[10]。而问题在于,半个多世纪的人工智能讨论,在起伏间从未抛弃道德问题的关怀,却至今没有产生一个系统的、公认的规范方式,更多的理论仍然纠缠在意识问题、主体问题之上。

(2)增加了企业成本。由于企业应收账款不是当期收回,企业需要对应收账款进行管理,这就增加了企业运营的成本。当企业涉及的应收账款的数量较多金额较大时,企业不仅需要聘请财务人员管理应收账款,还需要聘请人员去催收应收账款。这些人员的工资、差旅费及各种补贴加大了企业的经营费用。

(3)除了对于利益相关者的道德规范外,还要关注对 “人机互动”中的一般参与者的规范。智能机器的伦理规范不仅仅应该是对于机器、设计者、生产者的规范,还应该是对于使用者等更广泛意义上的参与者的规范。目前人工智能的伦理讨论更像是行业规范,只针对人工智能产业内部相关人士进行规定。对于人工智能人工物的行为规范性讨论较少,而得到讨论的主要问题是对人工智能的责任问题,很少讨论整体上的规范性。而大众使用人工智能的规范就少之又少,鲜有人提及。基于与非人实体的道德关系而进行规范,目前在动物保护、环境生态领域比较常见,人对于非人存在的对待方式,在很大程度上反映了人自身的道德品质。人对自动化机器的非道德行为,会塑造人的道德自我,从而影响人对其他互动对象的道德意向性。在社会机器人的研究中,道德心理学研究者极其关注与机器互动所培养出来的行为习惯,这种习惯本身就是伦理规范的表现。因此,对于使用者进行规范,还可能反向推动规范设计行为,设计与伦理的时间错位也会得到解决。并且,由于不是让大众被动接受专业团体的道德知识,大众可以更多地发挥常识知识的作用,更容易形成社会共识;而专业团体因此受到更普遍的道德规则约束,更容易形成与一般社会成员在行为规范上的相互建构。

尽管我也为孩子配备了安全座椅,可是安装起来很麻烦,宝宝也不大喜欢坐。只要坐上安全座椅宝宝不是哭闹,就是各种乱动,让我很是头疼。就在准备放弃安全座椅时发现了宝贝第一铠甲舰队PLUS的试用活动。

参考文献:

[1]KIM Y,CHA J. Artificial intelligence technology and social problem solving[C]// KOCH F.Evolutionary computing and artificial intelligence.Singapore:Springer Nature,2019:8-20.

[2]LEXCELLENT C.Artificial intelligence versus human intelligence——Are humans going to be hacked [M].Cham:Springer Nature,2019:29.

[3]CATH C,WACHTER S,MITTELSTADT B,et al.Artificial intelligence and the “good society”:The US,EU,and UK approach[J].Science and engineering ethics,2018,24(2):505.

[4]JIN D H. Reconstructing our orders:Artificial intelligence and human society[M].Shanghai and Singapore:Shanghai University Press and Springer Nature,2018:76,113.

[5]CORRALES M,FENWICK M,FORG N.Robotics,AI and the future of law[M].Singapore:Springer Nature,2018:7.

[6]WIRTZ B W,WEYERER J C.Artificial intelligence in the public sector[C]//FARAZMAND A.Global encyclopedia of public administration,public policy,and governance.Cham:Springer Nature,2019:1-6.

[7]HUANG M H,RUST R T.Artificial intelligence in service[J].Journal of service research,2018,21(2):155-172.

[8]TONKENS R.A challenge for machine ethics[J].Minds & machines,2009,19(3):421.

[9]VADUVA S,FOTEA I S,THOMAS A R.Business ethics and leadership from an Eastern European,transdisciplinary context[M].Cham:Springer International Publishing,2017:88.

[10]MÜLLER V C.Fundamental issues of artificial intelligence[M].Cham:Springer International Publishing,2016:525.

[11]FRANSSEN M,VERMAAS P E,KROES P,et al.Philosophy of technology after the empirical turn[M].Cham:Springer International Publishing,2016:7.

((责任编辑 沈蓉)

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

张正清:构建以接受性为核心的人工智能伦理论文
下载Doc文档

猜你喜欢