摘 要:随着人工智能的飞速发展,人工智能的应用已逐渐应用于社会的各个方面,许多评论家、学者和政策制定者现在呼吁确保控制我们生活的算法是跨标准、公平和负责任的.在此,Iyad Rahwan提出一个人工智能和算法系统的概念框架.需要工具来编程、调试和维护算法社会契约,这是各种人类利益相关者之间的契约,由机器来调停.为了实现这一点,我们可以从建模和仿真、交互式机器学习等领域引入"人机回圈"(HITL:Human-inthe-Loop)的概念.特别地,Iyad Rahwan提出了一个称之为"众机回圈"(SITL:Society-in-the-Loop)的议程,它把HITL控制范例与协商受AI系统影响的各种利益相关者的价值观的机制结合起来,并监测协议的遵守情况.简而言之,SITL=HITL+社会契约.
关键词:人工智能; 人机回圈; 众机回圈; 社会契约论; 算法化社会契约
一、概述
尽管最初的人工智能前景看好,但80年代和90年代接踵而来的是漫长的人工智能之冬,因为自动推理的问题被证明比最初预期的要难得多.但是近年来,人工智能的许多领域在理论和实践上都取得了快速的进展.突出的例子包括机器学习---"通过深层神经网络结构从评估反馈中加强学习,以及在市场和其他多智能体系统中进行经济分析,结果是Al技术在日常生活中的加速扩散."[1]
这些进步产生了巨大的社会效益,从更有效的供应链管理,到在对等市场和在线约会应用中更好的匹配,到更可靠的医学诊断和药物发现."但是人工智能的进步也引起了许多关于自主机器和复杂算法系统的监管和治理机制的问题."[2]一些评论员担心算法系统不负责任,因为它们是黑匣子,其内部工作对所有利益相关者都不透明."另一些人则担心人们不自觉地生活在由新闻评论算法创造的过滤泡沫中."[3]另一些人则认为,数据驱动的决策支持系统可以在司法中永久存在,因为它们在设计上也可能存在偏差,或者在训练数据中发现人类的偏差.此外,算法还可以创建反馈循环以加强不平等,例如在预测性警务或信誉预测中使用人工智能,使个人很难摆脱贫穷的恶性循环.
(4)北京水电勘察设计处利用砂土相对密实度对砂土液化的判别和实际有一定出入,只有地面最大加速度一个指标限制显然不能完全反映客观实际,通过日本新舄与阿拉斯加瓦尔德兹两地相对密度比较,低的非液化反而高的液化,就说明了这一点。
为什么一些人担心算法系统,它们是黑匣子,美国马里兰大学法律教授弗兰克.帕斯克莱(Frank Pasquale)写的新书《黑匣子社会:控制金钱和信息的秘密算法》中,他认为大量数据背后隐藏着神秘的算法,这些算法可能决定了企业的命运,对个人声誉有重要的影响,甚至对社会整体经济都会有所影响,隐藏在数据背后的算法十分隐秘和复杂.他主张如果要真正保护数据以及学会如何正确利用数据,就要提高所收集数据透明度.在新闻过滤泡沫中,人们在平时的搜索引擎中输入自己需要找寻的内容,久而久之,搜索引擎就会自动显示出自己平时感兴趣的内容.虽然说这对我们越来越智能,更容易也更为方便的找寻我们平时喜欢的内容,但是这并不意味着是一种真的方便,反而产生了一叶障目的作用,它缩小了我们的世界观,把我们困在网络过滤的泡沫之中.
为了应对这些警报,各种学术和政府实体已经开始认真思考AI治理.最近,美国白宫国家科学技术委员会发布了一份报告,其中包含从消除数据偏差,到管理自主车辆,再到将民族教育引入计算机科学课程.欧盟颁布了许多个人数据隐私条例,不久将投票表决一项提案,授予机器人合法地位,以便使它们能够承担责任,并为其设计制定道德行为守则.电子电气工程师学会最近发表了一篇关于"伦理均衡设计"的愿景.业界领袖也已采取主动,建立人工智能伙伴关系,以建立人工智能系统的最佳实践,并教育公众有关人工智能.
Iyad Rahwan的目标是介绍"一个概念框架来思考人工智能规则和数据驱动系统".他认为我们需要一种新型的社会契约:"算法社会契约,即各种利益相关者之间的以机器为媒介的合同."为了达到这个目的,我们需要在思考Al系统时采用一个众机回圈(SITL)框架,它从监督控制和交互式机器学习领域适应了人机回圈(HITL)的概念,但是扩展到整个社会所进行的监督.
实现SITL的一个障碍是工程和人类活动之间的文化鸿沟.深思熟虑的立法者、法律学者、媒体理论家和伦理学家都非常善于揭示道德风险,以及识别道德原则和宪法权利可能受到侵犯的方式.但是他们并不总是能够以工程师和设计师能够操作的方式表达这些期望.
二、人机回圈
"在人机回圈(HITL)系统中,人工操作员是自动化控制过程的重要组成部分,处理具有挑战性的监视、异常控制、优化和维护任务."[4]Sheridan将人工监督控制定义为"一个或多个人工操作员间歇地编程并持续地从计算机接收信息,计算机本身通过人工执行器将自主控制回路关闭到受控过程或任务环境的过程"[5].
王钟陵《中国京剧史略论》[3]将中国京剧史划分为五个时期,按照时间的纵向发展描述了京剧的形成与上演情况,并用部分篇幅探讨了话剧对京剧的影响以及京剧小剧场的生存状况。结尾处对京剧的现状与未来前景进行了表述,作者认为京剧面临的困境也不会将它推向“死亡,”京剧会在很长的时期中不会被替代。
(三)验证遵守社会价值观
(一)HITL ML的两种示例:一种简单形式是使用人工标记数据来训练机器学习算法.数据标注有许多类型,如分类、画框、注释、标记等等.机器学习分为有监督学习和无监督学习,无监督学习所产生的效果是无法预测的;而在实际应用中,一般采用监督学习,有监督的机器学习就需要有标注的数据来作为先验经验.这产生了宝贵的基准,刺激了计算机视觉的重大进步.另一种形式是交互式机器学习,它可以通过交互式地集成来自用户的反馈来帮助机器更快或更有效地学习.例如,许多计算机应用程序从你的行为中学习,以便提高它们更好地为你服务的能力.通过预测你要键入的下一个单词.类似地,当你在网上电子邮件服务中标记电子邮件地址时,你就是复杂机器学习算法(特别是主动学习系统)循环中的许多人之一,帮助它持续不断地寻求改进垃圾邮件或非垃圾邮件的分类.现在正在出现更复杂的HITL ML示例,其中回路中的人对系统的状态有更明确的了解.就立场而言,在危机咨询系统中,机器学习系统对呼叫者发送的消息进行分类,并实时地向人类咨询师提供可视化信息.因此,人和机器学习系统协同工作以提供有效的咨询.
在对算法参数进行训练之前,首先需要对学习样本数据进行预处理。考虑到训练样本和测试样本间可能存在差异,算法采用不同的归一化处理策略。假设所有训练样本为X={X1,X2,…,XM},其中Xi表示一组负荷数据。对于输入样本,算法采用4个步骤进行归一化:计算均值、计算方差、白化[15]和归一化。白化的原因是因为自然数据相邻元素之间有较大的相关性,因此通过白化可以降低数据的冗余性,类似于PCA降维。对于测试样本,需要将其按照训练样本的均值和方差白化,然后按照训练样本的最大、最小值均匀归一化到0到1之间。假设单个测试样本为T,则归一化规则为:
三、众机回圈
HITL是处于局部意义上的个体或群体将其判断融入到狭义层面的AL系统中,与之相异的是SITL将处于整体意义上的社会价值通过某种程序将其注入到具有广泛含义的社会结果的算法管理中.从HITL到SITL的转变提出了一个根本性的不同问题:如何平衡不同利益相关者的竞争利益,包括那些通过算法进行管理的人之间的利益?传统上,这是定义社会契约的问题.把它放在最骨架的形式,我们可以说:SITL=HITL+社会契约.为了阐述这个简单的等式,我们需要在政治哲学上走一小段弯路.
人们可以经过协议,订立契约,建立公平的社会.个人为了社会的利益要放弃自己的部分利益作出牺牲,以符合公众的意志.这样做,个人的"天然"自由虽然受到限制,但却获得了"政治"自由.只有为全体民众的自由自觉接受契约,才能使一个人既爱社会约束,又保留其自由意志.建立一个人与人之间而非人与政府之间的契约关系.
合作物种是人类自组成社会系统以来所带有的天然属性."文化人类学家追踪政治统治体制的演变,从分散的部落到日益集中的酋长、主权国家和帝国."[8]随着时间的推移,人类达到了旧合作机构的极限,如亲属选择---帮助分享他们基因的其他人,以及互惠利他主义---帮助那些稍后会帮助他们回归.这些旧机制无法充分扩展到更大的群体.面对群体间的竞争,进化的压力有利于更复杂的社会制度的出现和传播,以协调人们的行为.例如,中央的制裁权能够防止高阶的随心所欲的合作规范,但不能促进其执行,而这些规范会破坏大集团的合作.
回到托马斯.霍布斯的里程碑式的著作《利维坦》,社会契约理论的创始人认为"中央集权政府之所以合法,恰恰是因为它能够使勤劳的人们通过第三方在陌生人之间执行契约这些合同中的一些是明确的,如婚姻合同或商业交易".社会合同的其他方面是隐含的,被嵌入到支配日常生活的社会规范中.在这两种情况下,该合同体现了双方同意政府合法使用武力,或人民使用社会压力来保护人民的权利和惩罚违反者.
(一) 弯路
(二) 算法社会契约
抽象扩展结构水平(extended abstract level):通过对数据分析、推理,提出具有普遍意义的猜想或推论.譬如,能认识到数据分析结果的合理性判断与人们的实践需求紧密相关,或者能提出类似的观点.
(二)人的存在实现了HITL AI系统中的两个主要功能:一是人类可以通过其他智能的自主系统识别错误行为,并采取纠正措施.例如,一个信用评分系统可能会错误地将一个成年人归类为不合格的信用,因为在他们的年龄数据输入错误,一个人可能会从申请人的照片中发现这一点.同样地,在武器化无人驾驶飞机上的计算机视觉系统可能会错误地识别出一名平民是一名战斗人员,而人类操作员希望能够确保识别出这种情况,并覆盖系统."一些工作正在进行,以确保人工智能不能学会禁用自己的死亡开关."[7]在Orseau和Armstrong的论文中,"死亡开关"的概念应该比较清楚了.一个安全的、可中断的人工智能,就是一个可以被随时随地被关闭的人工智能,无论是什么类型的人工智能.如果能够在机器人体内设计出一个"红色死亡开关",那么就该设计一个永远不会阻止人类去按这个"红色死亡开关"的机器人.二是如果完全自治的系统对人类造成伤害,让一个人在循环中提供信任,相信有人会承担这种错误的后果,从而有动机最小化那些错误.此人可能是紧控制回路(例如无人机的操作员)中的人,也可能是慢得多的回路(例如自主车辆的多年开发周期中的程序员).除非我们找到惩罚对人类造成伤害的算法的方法,否则很难想到其他的替代方法.
通过使用社会契约隐喻,SITL范式强调了与传统HITL范式的重要区别.在HITL系统中,人类控制器确保AI系统完全满足社会利益相关者的无争议的共同目标,例如确保飞机安全着陆,或改进食品质量检查.此外在SITL领域,社会必须在两个方面达成一致,其一是社会必须解决人工智能系统可以努力实现的不同价值之间的权衡,例如,安全与隐私之间的权衡,或不同公平概念之间的权衡.在SITL中,AI系统具有广泛的影响,要求各种社会利益相关者确定Al必须尊重的基本权利、指导AI操作的伦理价值、AI可以在各种利益相关的群体之间进行成本和利益权衡等.其二是社会必须就哪些利益相关者将获得哪些利益和支付哪些成本达成一致.在以人为本的政府中,公民使用各种渠道.比如民主投票、民意测验、民间社会机构、媒体---向政府表达他们的期望.同时,政府通过其官僚主义和虚荣的分支机构不藐视政府的治理职能,最终被公民所评价.虽然公民不参与细节,但他们是所有这些机构的仲裁者,有权利取代他们的主要行为者.
为了实施SITL,我们需要知道人们期望Al采取什么样的行为,并且使决策者和公众能够向机器表达这些期望(目标、道德、规范、社会契约).为了结束循环,我们还需要新的度量和方法来根据可量化的人类价值评估AI行为.换言之,我们需要建立新的工具来编程、调试和监控人类和算法之间的算法社会契约,即算法,这些算法对社会和经济生活的各个方面都是有效的主权,不管它们是否由政府实际操作.这要求政府监管和行业标准都代表公众的期望,并给予相应的监督.
四、SITL(众机回圈)差距
"我们为什么还没有到那里?"关于那些渗透并支配着我们生活的不透明算法所带来的社会和法律挑战,已经有了一系列经过深思熟虑的条约.虽然这些具有开创性的著作有助于阐明许多挑战,但它们缺乏全面的解决方案.
Iyad Rahwan提倡的SITL范式更类似于政府和受治理的市民之间的互动,而不是无人机与其操作员之间的互动.类似于传统社会契约中正当程序和账户能力的作用,SITL可以被理解为试图将一般意志嵌入到算法社会契约中.
(一) 阐明社会价值
3.2 顺铂在腹腔灌注中的应用 顺铂为第一代铂类抗肿瘤药物,属细胞周期非特异性药物。其静脉用药对消化道肿瘤有较好疗效,但对晚期消化道肿瘤合并恶性腹水的疗效并不理想,且大剂量使用具有明显的消化道及肾毒性[6]。顺铂灌注进入腹腔后不易通过腹膜屏障,其在腹腔内的浓度高于血浆浓度20~500倍,可在体内维持较长时间的有效浓度,从而减少腹腔内粘连。腹腔内器官直接浸泡在高浓度化疗药物中,能防止和减少腹腔内复发。腹腔内药物经门静脉循环系统进入肝代谢,有利于防治肝转移;同时进入体循环的药量很小,胃肠反应和骨髓抑制等不良反应轻,对患者全身情况尤其是免疫功能影响小。
无痛胃肠镜检查患者,大多使用芬太尼或舒芬太尼复合丙泊酚,镇静镇痛效果较好,但呼吸抑制发生率较高[1]。盐酸纳布啡复合丙泊酚用于无痛胃肠镜检查,呼吸抑制作用轻、心血管副反应小、恶心呕吐发生率低、对内脏疼痛作用强是其优点,但在临床使用过程中发现,眩晕发生率高,限制了其在门诊手术的应用。我院用小剂量异丙嗪预防纳布啡所致眩晕,观察其疗效和安全性,为临床应用提供参考。
数据管理模块作为后台服务运行在服务器端,根据预设时间对基础数据库进行扫描,获取预警时间段内的数据并保存,以供预警分析引擎进行数据处理。数据管理类结构如图2所示。
(二)量化谈判权衡的外部性
算法可以产生经济学家所称的负外部性---不参与决定的第三方产生的成本.例如,如果自主车辆算法过分优先考虑乘客的安全---谁拥有或付钱使用他们---它们会不成比例地增加行人承担的风险.对这些极端情况的量化并不总是简单的,尤其是当它们由于长而间接的因果链或者由于人类不透明的机器代码而发生时.
"人机回圈"机器学习是一种尝试创建允许通过让专家与机器的一系列交互参与到机器学习的训练中的系统工作."[6]人机回圈(HITL) 被应用于人工智能(AI)和机器学习(ML)这两个方面.
计算机科学家和工程师并不总是能够量化他们系统的行为,这样他们就容易被伦理学家和法律理论家理解.这使得根据设定的期望来审查算法的行为更加困难.即使是"公平"这样的简单概念,也可以通过数学或计算机代码的许多不同方式形式化.
融合DPI采集平台,按照“单次分光、统一分流、标准化采集”统一标准部署融合DPI采集设备,通过并接方式,采集运营商的4张数据源网络全部数据。运营商就能更快速准确的为各个政府部门提供源数据,保障我国信息和网络安全,维护社会稳定和保障经济发展,同时也能更好的为运营商各类分析平台提供大数据,提升运营能力和降低成本。
五、如何更好地接近众机回圈的实施
作者认为在缩小差距方面可以采取一些措施:"一是建议使用众包资源以可编程的方式识别社会权衡."[9]有一些努力是为了收集关于人们对在人工智能算法中实现的价值观的偏好的数据,例如那些控制无人驾驶汽车的数据.或者利用道德心理学领域的方法,识别出道路不同使用者的潜在道德风险.在许多领域,可能不需要进行明确的投票活动或构建特定的众包平台,就无法直接从观测数据中测量如此清晰的值.例如,对社交媒体话语的自动情感分析可以量化人们对人工智能系统所犯下的不同道德违规行为的反应.虽然这些方法有其局限性,但它们可以帮助衡量公众态度的演变,以及它们是否愿意通过机器接受新的社会契约.其次作者还认为:"计算社会选择领域揭示了社会偏好的聚合和资源的公平分配,由于这些聚合机制可以通过算法实现."[10]因此它们为不同利益相关者协商权衡问题提供了一个潜在的解决方案.就立场而言,莱本最近提出了一种算法:"利用罗尔斯契约主义解决自动驾驶汽车无法避免的伤害困境."[11]特别是,莱本建议对汽车进行程序设计,以做出理性行为人在"伊格纳斯的面纱"后面处于典型的原始位置时会采取的决策.例如,这种面纱会掩盖某个特定事故中的人是乘客还是行人,从而引导他们选择最大限度的解决方案,即将最坏情况的后果减至最少的决定.再者作者在文章中特别强调要确保问责制,通过算法环境中的透明机制,仔细检查当权者的行为,这就像我们如何调节人类的行为,不是通过观察他们的大脑神经回路,而是通过观察他们的行为并根据某些行为标准来判断.当然,这种观察可以得益于算法对他们的决定给出人类可解释的能力.我们还可以设想一个专业的算法审核员的角色,他们询问算法以确保符合预先设定的标准.这种研究可以使用真实或合成的数据集来识别算法是否违反了某些要求.例如,算法审核员可以提供示例作业应用程序以确定作业匹配算法是否基于无关因素在候选人之间进行区分.此外自动车辆算法审核员也可以提供模拟交通场景,以确保车辆不会不成比例地增加行人或骑自行车的风险而有利于乘客.另外"Amitai和Oren Etzioni提出了一种新的算法称为"监督程序",其功能是监督、审计和让程序负责运作,注意强调"操作性"[12].例如,一类新的浏览器插件允许对在线广告平台向广告商提供的信息进行独立的、数据驱动的审计,这揭示了当前以算法为中介的在线广告生态系统的跨简约性和准确性问题.作者还提出公众参与的限制这一观点.公众舆论不是一种理性力量,它不会推理、调查、发明、说服、获得律师资格或解决报价,这是因为一个非专业人士不可能完全了解每一个政策问题的各个方面.即使是某一领域的专家从业者或监管者也认为,在另一个领域,比如货币政策、医学,也不可能被充分地了解,从而介入政策问题.
结语
Iyad Rahwan在《科学》中第一次提出SITL众机回圈这个概念,可以说众机回圈是人机回圈的升级版,在人机回圈中,人的监督功能是系统中至关重要的,而"机"的形式多种多样,大致也可以归结为以下部分:工作机、动力机与控制学习机.控制是负反馈,学习是扩展和提升.对于"机"来说,这三部分可以结合在一起,也可以以不同的方式分置,在使用时再结合起来.分置与结合,是"机"区别于人的一大特征.对于使用者而言,所关注的主要是"机"作为整体的功能,也就是由工作机做出的最终的输出,并不在意其载体、能源,以及幕后的信息处理方式.为此,可以分别改进工作机、动力机与控制学习机,以及调整它们之间的关系.这就关系到这三部分之间的接口、界面、协议、标准,以及相互兼容的情况.
急性缺血性脑卒中是最常见的卒中类型,在人类各种死亡原因中位居首位,具有较高的发病率及病死率,处理急性缺血性脑卒中应着重强调早预防、早诊断、早治疗和早康复,并采取措施预防复发[8]。这些相关措施为挽救患者生命、提高脑卒中患者的抢救成功率、减少并发症发生率和病死率,形成有效的急救护理模式有至关重要作用。
为什么说众机回圈会慢慢代替人机回圈,HITL AI是关于将个人或群体的判断嵌入到AI系统的优化中,那么SITL是关于将社会的判断作为整体嵌入到社会结果的算法治理中.先前Iyad Rahwan就引用托马斯.霍布斯的里程碑式的著作《利维坦》,来突出社会契约的重要性,"它能够为主权国家提供效率和稳定,但也能确保主权国家实现人民的普遍意志,而SITL范式更类似于政府和受治理的市民之间的互动,SITL可以被理解为试图将一般意志嵌入到算法社会契约中".现代社会(理论上)是以人为本的治理机器.这些机器中有一些是打码编程的,并且比其他机器具有更好的用户界面.类似地,随着更多的治理功能发挥.编码到AI算法中,我们需要在人的价值观和治理算法之间建立通道.
为了实施SITL,我们需要了解人们对AI的期许,转化为其理解的语言,并编码为程序让机器进行学习,从而形成回圈,当然还需要构建新的工具,使社会能够编程来调试和监控人类与治理算法之间的算法社会契约.在完全实现众机回圈的过程中,我们还面临着许多差距:立法者、法律学者、媒体理论家和伦理学家都非常善于揭示道德风险,但是他们并不总是能够以工程师和设计师的身份来设计这些应用程序,使其更富有道德化.以及,这些算法中的一些产生了什么经济学家称为"负外部性",即第三方不参与决定的成本.例如,降低道路上的速度限制降低了想快速回家的司机的实用性,同时增加了司机和行人的整体安全.通过将车速限制降低到零和禁止汽车,完全消除交通事故是可能的,但这也会消除驾驶的实用性,而监管者试图通过不断的学习过程来达到社会所舒适的平衡.在任何具有许多交互部分的复杂系统中,量化折中总是困难的.在复杂的经济系统中,设计选择往往会产生意想不到的后果.随着人工智能成为这类系统的组成部分,量化这些折中的问题变得更加困难.
STTL的工作时间尺度与HITL不同.它看起来更像是对法规和立法的公开反馈,而不是对频繁的微观决策的反馈,从而许多学者提出了看法.关于管理社会和经济生活的算法系统的规则.笔者把这些争论组织在两个有着悠久历史的范例中:计算机科学和监督控制领域的"人机回圈"范式和政治哲学领域的"社会契约"范式.建立机构和工具放在众机回圈的算法系统,并允许我们编程、调试和监控人类与政府算法之间的算法社会契约.当前的AI系统已不是刚发展时期有明确定义以及固定范围的网络系统,而是一个受社会各个方面因素影响的广泛区域的系统.HITL通过收集个人或者固定群体的信息,例如期待、目标、喜好,从而经过数据筛选、算法等方法进行优化处理,对系统进行设置用户选择.但是将AI系统放置在广泛的社会中,数以万计的数据以及用户的偏好全部纳入系统算法是非常复杂的.我们需要在人类价值观和AI系统编程中设置一个桥梁---SITL.因此在实施SITL的过程中我们需要将权力、道德、法律等基本社会契约转化进行编程,将社会契约编程为算法,转换为机器理解的语言,让它们进行学习.
启蒙时代标志着人类对现代社会契约的转变,在现代社会契约中,政治合法性不再来自于国王的神圣权威,而是来自于自由公民之间相互约定任命一个君主.来自人文科学和计算机科学的越来越多的研究人员已经认识到SITL差距,并且正在努力弥合它.包括采用新方法用来量化算法歧视,量化新闻过滤算法中的偏差的方法,开展可以引出公众对机器的道德期望的调查,以及提供隐私细节选择的途径等等.
参考文献:
[1]Levy,S.(2010).The AI revolution is on.Wired.
[2]Pasquale,F.(2015).The black box society:The secret algo rithms that control money and information.Harvard Univer sity Press.
[3]Pariser,E.(2011).The filter bubble:What the Internet is hiding from you.Penguin UK.
[4]Allen,J.,Guinn,C.I.,and Horvtz,E.(1999).Mixed initiative interaction.IEEE Intelligent Systems and their Ap plications,14(5):14-23.
[5]Sheridan,T.B.(2006).Supervisory control.Handbook of Human Factors and Ergonomics,Third Edition,pages 1025-1052.
[6]Cakmak,M.,Chao,C.,and Thomaz,A.L.(2010).Designing interactions for robot active learners.IEEE Transactions on Autonomous Mental Development,2(2):108-118.
[7]Orseau,L.and Armstrong,S.(2016).Safely interruptibleagents.In Uncertainty in Artificial Intelligence:32nd Conference(UAI).
[8]Chen,Y.,Lai,J.K.,Parkes,D.C.,and Procaccia,A.D.(2013).Truth,justice,and cake cutting.Games and Economic Behavior,77(1):284-297.
[9]Conitzer,V.,Brill,M.,and Freeman,R.(2015).Crowd sourcing societal tradeoffs.In Proceedings of the 2015 Inter national Conference on Autonomous Agents and Multiagent Systems,pages 1213-1217.International Foundation for Au tonomous Agents and Multiagent Systems.
[10]Haviland,W.,Prins,H.,McBride,B.,and Walrath,D.(2013).Cultural anthropology:the human challenge.Cen gage Learning.
[11]Leben,D.(2017).A rawlsian algorithm for autonomous vehicles.Ethics and Information Technology,19:107-115.
[12]Etzioni,A.and Etzioni,O.(2016).AI assisted ethics.Ethics and Information Technology,18(2):149-156.
Society-in-the-Loop:A New Revolution in the Algorithmic Society of Artificial Intelligence
ZHAO Xiao-yu
(School of Public Administration,Hunan Normal University,Changsha,Hunan 410000)
Abstract:With the rapid development of artificial intelligence(AI),the application of artificial intelligence(AI)has been gradually applied in various aspects of society.Many critics,scholars and policy-makers call for ensuring that algorithms that control our lives are cross-standard,fair and responsible.Here Iyad Rahwan proposes a conceptual frame work for artificial intelligence and algorithmic systems Tools are needed to program,debug and maintain the social contract,which is a contract between various human stakeholders and is mediated by machines.To achieve this,we can introduce the concept of semi-physical(human-in-theloop:HITL)from the fields of modeling and simulation,interactive machine learning and so on.In particular,Iyad Rahwan has come up with what is known as a(SITL:Society-in-the-Loop).The agenda,which combines thwe HITL control paradigm with a mechanism for negotiating the values of various stakeholders affected by the Al system and monitors compliance with the Compact.In a nutshell,SITL=HITL+Social Contract.
Key words:artificial intelligence; Human-in-the-Loop; Society-in-the-Loop; social contract theory; algorithmic social contract
中图分类号:B82-057
文献标识码:A
文章编号:1671-9743(2019)06-0077-05
收稿日期:2019-03-22
作者简介:赵晓宇,1994年生,女,北京人,硕士研究生,研究方向:哲学.
标签:算法论文; 社会论文; 契约论文; 系统论文; 人工智能论文; 《怀化学院学报》2019年第6期论文; 湖南师范大学公共管理学院论文;