摘 要算法社会的言论同温层不断强化言论社群的割据与封闭性,伴随算法的精密化形成规模相对更为小众的“言论飞地”,造成了言论场割据的加剧和信息多样性的丧失,从而致使公共风险加剧,公共决策更难实现。言论自由需要的开放性在网络世界并不比物理世界更为可期。面对算法带来的公共风险和以平台为代表的社会权力对言论的威胁,国家权力在言论自由领域应变传统的“消极”角色为“积极”角色,积极履行规制职责。国家的实体规制是对公共风险的点状修补,而过程性规制改变了“行为主义”规制下的个案审查,将规制范围覆盖所有接触相关信息的言论社群,通过打破言论社群的封闭状态,鼓励言论社群内部以及不同言论社群之间的沟通交流,避免社群的极端化倾向。过程性规制主要是确保算法价值观的平等和网络空间的开放,过程性规制一方面可降低国家干预的宪法风险,另一方面也能更为有效地破解言论领域的公共风险。
关键词算法社会 信息割据 言论自由 公共风险 过程性规制
一、算法社会言论领域公共风险加剧
算法社会的到来,给言论自由领域的传统命题带来一系列变化,言论表达更加依赖作为基础设计的网络,代码及其衍生品为新的言论类型,言论传播受算法技术架构影响。这些变化并不都是积极的,算法与数据处理技术颠覆了传统言论自由的权利保护结构,引发一系列公共风险。言论自由包含信息获取自由和言论表达自由两项核心要素,前者用于形成内心确信,后者则用于意见展示,二者构成言论自由的两个基本维度。我们从这两个维度出发分析算法对言论的影响。
读书,提升的是我们的认知,拓宽的是我们的视野,完善的是我们的思维方式。当它与人本身的经验相融合时,它就打造了一个人不可替代的核心竞争力。
在信息获取上,算法的分类、聚类、回归、关联方便了人们的信息获取,但言论主体对算法的过度依赖,比如定制新闻〔1〕See Cass R. Sunstein, Republic. com 2.0, Princeton University Press, 2007, pp.1-3.,势必造成信息的垄断与割据,信息源的人为筛选与格局将导致作为言论自由前提的信息多样性的丧失。“通过网络内嵌算法建立的同温层(filter bubble)阻挡了社会中重要但复杂或者令人心生不快的信息。”〔2〕Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You, The Penguin Press, 2011, p. 86.由于选择性注意(selective attention)心理机制的影响——当人们遇到证实自己观点的信息时会产生积极的感受,异见则会带来消极压力,在“同温层”相对稳定的空间结构中,人们倾向于接受强化其原始观点的信息和讨论,并塑造与自己价值观相近的信息池。平台基于自身利益(经济的或非经济的)考虑,也乐于或急于满足用户的此类需求以增强用户黏性,借助数据共享形成的数据画像以及算法对信息的编排和过滤,不断强化着“以用户为中心的信息分割的形成”〔3〕钱弘道、姜斌:《“信息割据”下的沟通失效与公共论坛重建——发现互联网时代新的公共论坛原则》,载《浙江大学学报(人文社会科学版)》2013 年第1 期,第21 页。,就成为其核心价值观和基本作业目标。
伴随信息割据而来的,是言论社群渐加剧的封闭倾向。算法为具有相同或相似习惯、爱好与利益的社会群体聚集提供了便利条件,塑造起千姿百态但又相对封闭的言论社群。有研究团队分析英国大选期间推特上的115 万条相关消息,发现信息传播呈现“明显的党派划分,用户更倾向于转发与自己党派有关的积极信息”。〔4〕Boutet, A., Kim, H. & Yoneki, E.“, What’s in Twitter, I Know What Parties Are Popular and Who You Are Supporting Now!” 3(4) Soc. Netw. Anal. Min. 1390( 2013).一项对2009 年德国联邦选举中推特言论影响的研究也得出了类似的结论。〔5〕Albert Feller, Matthias Kuhnert, Timm O. Sprenger & Isabell M. Welpe,“ Divided They Tweet: The Network Structure of Political Microbloggers and Discussion Topics”, Proceedings of the Fifth International AAAI Conference on Weblogs and Social Media, 2011, pp. 474-477.除了依附种族、宗教、政党等形成的大规模言论社群,随着算法的精密化和细分化,社会群体的聚集与划分也越来越精细,进而形成规模相对较小的“言论飞地”。〔6〕Cass R. Sunstein, Designing Democracy: What Constitutions Do, Oxford University Press, 2001, p. 15.言论社群当然有其积极作用,可以增强社群成员的内心确信并扩大群体声音,但基于算法技术形成的言论社群也必然有其固有缺陷、问题和风险。一方面,社群内部的言论表达成为本社群成员的重要信息来源,进而与信息获取中的个人信息过滤相呼应。“普遍性的从众,导致公众丧失了他们所需要的信息”,〔7〕[美]凯斯·R. 桑斯坦:《社会因何要异见》,支振峰译,中国政法大学出版社2016 年版,第6 页。多元信息机制的缺失非但损害了社群言论的丰富性,也将进一步在整体上削弱言论的说服力。另一方面,言论社群内的群情激荡给社群成员造成掌握真理的假象,他们拒绝妥协且难以与其他社群沟通。研究证明,言论社群促使态度温和的个体在遇到相反言论时表现得更为极端,且群体容易出现极化倾向。〔8〕Dylko, IB, Dolgov, I., Hoffman, W., Eckhart, N., Molina, M., & Aaziz, O.,“ The Dark Side of Technology: An Experimental Investigation of the Influence of Customizability Technology on Online Political Selective Exposure” 73 Computers in Human Behavior 182 (2017).言论自由需要的言论场开放性在网络世界中并不比物理世界更为可期。
数据化信息关联也为稀释、污染信息源和干扰、破坏信息获取大开方便之门。部分社会成员利用算法的信息关联性稀释核心信息,比如代入相同的关键词或标签注入大量无关紧要的内容,造成所获信息质量的下降和获取高质量信息成本的增加。2011 年叙利亚内战发生后,记者、政治家和公众纷纷使用“#Syria”标签对该事件进行追踪。但不久社交平台上出现大量程序机器人(bot),它们伪装成社交平台用户,并利用“#Syria”标签推送大量与叙利亚有关却与其内战毫无关联的内容,比如叙利亚电视剧、叙利亚诗歌、叙利亚足球俱乐部,企图淹没与叙利亚内战直接相关的信息;同时,它们跟随关注叙利亚事件的用户,并在讨论中插入无关信息,扰乱他们对内战的严肃讨论。〔9〕Philip N. Howard, Pax Technica: How the Internet of Things May Set Us Free or Lock Us Up, Yale University Press, 2015, p. 29.2016 年的美国总统大选,除了有剑桥分析公司通过数据挖掘和数据分析获取用户的行为偏好,并据此制定宣传策略以外,〔10〕Schancya Gillian W, Purwanto E., Husain H., Fathullah N.,“ Protection of User Data Privacy in Presidential Election Campaign: Learn from United States’ Case” 1(3) International Journal of Global Community 348-349( 2018). 在社交媒体上还出现了众多程序机器人,通过预编程脚本自动发布的机器人账户发布支持特朗普的言论。它们在社交网络上冒充拉丁裔选民,发送大量重复信息离间该投票社区,并在选举后从社交平台消失。〔11〕Philip N. Howard, Samuel Woolley & Ryan Calo,“ Algorithms, Bots, and Political Communication in the US 2016 Election: The Challenge of Automated Political Communication for Election Law and Administration” 15(2) Journal of Information Technology & Politics 82( 2018).如果说上文信息“同温层”揭示的是网络言论场的自然状态,那么此处两个典型案例反映的则是对网络言论场的有目的、有计划的干扰与控制。
从言论表达的效果来看,算法将言论效果的决定因素由传统的资源占有变为受众注意力。传统媒介下的言论表达以言说者为核心,言说者在知识储备、资源占有等方面的优势决定了言论的影响力,因此形成言论表达的卖方市场;但算法社会言论的功能发挥则更多取决于言论的受众,言论的影响取决于多少人会关注该言论,并由此形成了言论的买方市场。简言之,数字时代的言论不再关注带宽的稀缺性,“而是观众的稀缺性,特别是观众注意力的稀缺”。〔12〕Jack M. Balkin,“ Digital Speech and Democratic Culture: A Theory of Freedom of Expression for the Information Society” 79 N.Y. U. L. Rev. 1, 7( 2004).算法按照言论的点击量、阅读量、转发量等数据指标对言论进行推送和排名,进一步造成言论表达上的管道垄断和“赢者通吃”局面。
输水槽采用三槽一联的三向预应力钢筋混凝土多侧墙简支结构,槽身横向总宽度22m,单槽过水断面尺寸6.0m×5.4m,底板厚0.5m,边墙厚0.6m,中墙厚0.7m,上部设人行道板和拉杆。基础为端承桩和扩大基础,扩大基础坐落在全风化白云质灰岩基础上。
就拿2018年9月原创版所刊姬皓婷的《那又怎么样》一文来说,初看平平常常,再看却意味深长。生活中的烦恼被明智的处事态度一扫而净,顿时体悟到“我笑世界皆笑”的旨义,让我联想到修心化性的重要。性格良好,心态转变,去除阴翳,葆有正能量,一身正气,遇事想得开、看得淡、放得下,就会心晴天不阴。处事顺遂、定得住位,守好自身,不被负面情绪所劫持,笑对万象,才能健康快活地过好每一天。
国家既可以通过设立信息服务资质标准或服务许可等方式将平台纳入监管体系,也可以禁止网络服务提供商为某些言论的传播提供服务,实现直接规制言论的目的。各国对互联网领域言论的规制实践也证明了这一点。以儿童色情言论为例,韩国《信息通信网络促进利用与信息保护法》第44条规定了信息通信服务商的删除义务,〔22〕参见马志刚:《中外互联网管理体制研究》,北京大学出版社2014 年版,第146 页。 2009 年日本制定的《保证青少年安全安心上网环境的整顿法》要求提高不良信息过滤软件性能及普及率。即使在对言论自由规制高度敏感的美国,联邦层面的《儿童互联网保护法》确认了过滤软件的合法性,各州则普遍将网络儿童色情言论纳入刑法惩罚范围。
其次,信息割据容易造成群体极端化,冲击社会稳定结构。当群体中的个体均具有同一倾向,尽管程度存在差异,飞地协商的结果往往超出群体中所有个体的原先判断,并走向极端。〔15〕See Cass R. Sunstein, Designing Democracy: What Constitutions Do, Oxford University Press, 2001, pp. 15-40.言论社群在各自主张上的极端化,加剧社会分裂的同时也“进一步滋生极端主义,甚至仇恨和暴力”。〔16〕Cass R. Sunstein, Republic. com 2.0, Princeton University Press, 2007, p. 44.伊斯兰国的网络宣传和招募正是通过封闭言论空间的极端化倾向提高自己的号召力:一方面,通过网络社交媒体上的标签功能提供信息、聚焦关注,形成自己的网络扩音器;另一方面,通过网络聊天室、应用程序等制造相对封闭的言论社群。〔17〕Imran Awan, “Cyber-Extremism: Isis and the Power of Social Media” 54(2) Social Science and Public Policy 140-147 (2017).通过定义、关联、模仿、差异强化等一系列过程,个体抛弃原有观念并开始理解极端主义,社会中的边缘群体和弱势群体甚至对该社群产生归属感。
信息垄断与割据导致多元信息纠偏功能不复存在和不同言论社群协商功能丧失,在一定程度上会削弱国家传统治理手段作用发挥和治理效能,但这并不意味着平台能够补充由此产生的权力空白,平台自身属性决定了其不可能承担言论自由保护的法理责任。言论的上述公共风险源自算法分类、聚类、推送、排名等算法技术,而这些技术服务恰恰是平台赖以生存和发展的基础,强化算法技术架构更符合平台的各类利益诉求。算法社会言论自由公共风险产生所依赖的数据处理和算法不仅具有可规制性,而且也必须要规制。当前国家在算法面前的应对不足只是一种滞后,而绝非无能为力,当然更不应因此而退居幕后,而应该重构其角色定位。
二、算法社会言论自由保护的模式选择
面对算法社会言论技术条件的变化,有学者认为可以实现言论自由保护从国家权力模式到社会权力模式转型。一方面,他们认为平台在言论自由保护中的角色日益重要,〔18〕参见汪波:《大数据、民意形态与数字协商民主》,载《浙江社会科学》2015 年第11 期,第42 页。社会权力模式将是算法社会中言论自由保护的主要模式。另一方面,算法社会“自然淘汰了政府的新闻审查制度”,“削弱了国家集权的控制能力”。〔19〕齐爱民:《论网络空间的特征及其对法律的影响》,载《贵州大学学报(社会科学版)》2004 年第2 期,第20 页。而通过上文梳理的网络言论场的公共风险,我们认为应对之策并非国家的退场,恰恰相反,需要国家在言论领域由传统消极角色转向积极角色。
因此本文提出UAV+RFID技术在制品信息采集的无人机三维路径规划问题,旨在求解UAV+RFID技术在制品库存信息采集的最优化路径,确保在规避障碍物的前提下实现在制品库存的信息采集。
从图1可以看出,锂离子电池在离线后,其端电压会经历一个跳变,图中A点到B点的变化,然后在脱离负载的情况下经过一段时间缓慢恢复至一个稳定的电压值——开路电压OCV。上述过程中B点的电压值我们称为回跳电压,并记为Ut。
(一)网络言论中的国家权力在场
传统上国家权力对言论领域事务的管理主要借助于对信息传播有限资源的配置来进行。以电波频率为例,由于无线电频率资源的稀缺,国家对电波的管理和规制往往被认为符合公共利益,并不侵犯言论自由。我国台湾地区大法官解释认为,“电信法”实施事前许可制固然限制人民使用无线电波频率的通讯传播自由,但无线电波频率属于全体国民的公共资源,为避免无线电波频率使用互相干扰、确保频率和使用效率,以维护使用电波秩序及公共资源,增进重要公共利益,政府必须妥慎管理,并不违反宪法对言论自由的保护。〔20〕参见我国台湾地区“司法院”大法官释字第678 号。有学者认为,传统媒介资源的有限性使国家有充分理由(比如资源分配和管理)介入言论管控,但算法社会言论的数据化挤压了国家干预的空间,或者说言论传播资源有限性的局限的解决,已使得国家干预没有必要了。
算法社会中平台的兴起受到广泛关注,包括电信和宽带公司、网络主机服务、域名注册、搜索引擎、社交平台、支付系统和广告商等在内的网络服务提供者在权利保障中的重要性陡增,〔26〕Jack M. Balkin, “Old-School/ New-School Speech Regulation” 127 Harv. L. Rev. 2296, 2297 (2014).影响甚至决定着用户能否发表言论,发表何种言论,以及言论可以产生多大的影响力。〔27〕2015 年国家网信办公布“网络敲诈和有偿删帖”十大经典案例,其中有偿删帖的案例有六个,涉案主体除了网络“黑客”以外,还包括了网站负责人或编辑、营销策划公司、网络技术公司等。参见张洋:《国家网信办公布“网络敲诈和有偿删帖”十大典型案例》,来源:http://politics.people.com.cn/n/2015/0127/c1001-26454587.html,2019 年3 月29 日访问。虽然算法技术是中立的,但设计和运用算法技术的平台却有各自的利益考量,平台并不会主动成为言论自由的保护者,在某些情况下,平台甚至会成为言论自由的重要威胁。平台在言论自由领域同样存在“双刃剑”问题。
首先,基于算法的信息垄断与社群割据效应致使人们丧失共同生活经验,导致公共价值形塑的困难和公共决策的难以实现。网络发展初期的“网络社区”曾带给人们互联互通的美好想象,但算法对社会生活的全面干预并没有进一步增进理解和沟通,“网络上的单链条式互动导致网络社群的碎片化”〔13〕Robert D. Putnam, Bowling Along: The Collapse and Revival of American Community, Simon & Schuster, 2000, p.178.。尽管个体化的数字生活正成为常态,但人们对公共物品和公共服务的需求没有消失,通过协商进行公共决策的社会治理模式并没有改变。如果我们不能采取措施补足人们在共同生活经验上的缺失,“作为公共决策机制的基础结构”〔14〕[美]乔万尼·萨托利:《民主新论》,冯克利、阎克文译,世纪出版社、上海人民出版社2009 年版,第128 页。的言论自由将会失效,激化包括公共资源分配在内的社会纠纷,原本通过协商得以缓解或解决的社会矛盾不仅不会消解,反而会进一步加剧。
新言论场景的每一环节都嵌入结构性的权力传递,比如政府部门的媒体监管机制〔23〕《互联网等信息网络传播视听节目管理办法》第24 条规定,省级以上广播电视行政部门应设立试听节目监控系统、建立公众监督举报制度。、媒体内部的内容审核机制,〔24〕《互联网等信息网络传播视听节目管理办法》第20 条规定,持证机构实行节目总编负责制,配备节目审查员,对其播放的节目内容进行审查。甚至中央对地方政府的考核,也会导致地方对言论采取更为严格的管控。即使大型跨国平台,也无法逃避国家权力的传递,其制定的言论政策,不得不受到国家权力的影响。以社交平台在欧洲的境遇为例,如果不制定禁止仇恨言论的政策或纵容此类言论,不但用户可能会放弃使用脸书,〔25〕Marvin Ammori, “The ‘New’ New York Times: Free Speech Lawyering in the Age of Google and Twitter” 127 Harv. L. Rev. 2259, 2263(2014).平台还可能因此面临巨额罚款。可见,本地法律影响了平台的言论政策,进而形塑着平台在言论保护中的作用空间。
春天的田野是美丽的:蔚蓝的天空中,慢悠悠地飘过一朵朵洁白无瑕的云,它们没有线条,就像只用白色颜料泼出来一般,随意而自由。山路两旁有成片的野酸枣树、桃树、山楂、野荆,这个时节有些果木正好开花,成群的蜜蜂嗡嗡地在花丛间飞来飞去,一刻不闲地忙碌着。纵横交错的河支细干在小山村中纵情蜿蜒,河水清澈甘冽,调皮的鱼儿在纤柔的水草间来回穿行,时不时吐出一串串晶莹的水泡。这真是一幅美丽的春景图。
(二)平台在言论保护中的复杂角色
言论的数据化在一定程度上降低了国家通过资源分配干预言论的可能性,但超物理状态的网络结构无法割裂算法运行与物质实体之间的联系,更无法脱离其所处的社会场景。数据化网络也是一种资源,并且也是有限的,国家虽不一定是资源的所有者,但却是网络这一“公共品”秩序维护的义务主体,仍然是网络资源最重要的分配者和管理者。即使推崇“代码即法律”的莱斯格教授也不得不承认,代码组织运行的网络空间同样存在国家权力的影子,政府可以通过直接管理互联网信息服务提供商(ICPs)和互联网接入服务提供商(ISPs)的方式达到间接管理网络的目的。〔21〕See Lawrence Lessig, Code and Other Laws of Cyberspace, Basic Books, 1999, p. 97.同时,算法社会的言论风险需要国家的干预。由于数据化言论场的去界化开放性、规模化交互性,言论风险的不确定性和强度绝非个体或平台所能控制,国家强有力的干预与监督是更为必要的。
平台运用其掌握的算法技术,可以延伸到言论表达的所有环节。有学者将平台的干预归纳为以下四个方面:(1)通过过滤、删除信息或影响用户的内容获取等方式决定信息流向;(2)管理用户活动数据,知悉传播主体的行为;(3)控制用户其他网络活动;(4)突破国家边界限制。〔28〕参见张小强:《互联网的网络化治理:用户权利的契约化与网络中介私权力依赖》,载《新闻与传播研究》2018 年第7 期,第89-90 页。这些干预方式几乎涵盖了信息获取、言论表达以及言论传播各个方面。与此同时,平台部分承担了对言论进行裁判的类司法功能,特别是某些社交平台,在处理言论纠纷的过程中承担裁判者角色。平台聆听纠纷各方的主张和申辩、解释并适用平台言论规则,甚至可以做出具有实质意义的裁判结论,包括删除相关言论乃至禁言。
事实上,算法社会的国家权力与平台权力难以简单归结为此消彼长的关系,在言论保护上,二者呈现某种程度上的“共生共谋”〔33〕郑永年教授针对互联网时代的国家和社会关系提出“相互赋权论”,认为网络在国家和社会之间制造了一种递归关系,二者相互赋权和改造。参见郑永年:《技术赋权:中国的互联网、国家与社会》,邱道隆译,东方出版社2014 年版,第15 页。:国家权力通过平台权力管控言论风险,平台权力则在国家权力约束下提供技术服务。前文的分析业已表明,算法技术条件下国家权力非但没有削弱,反而出现增强的趋势。而平台的出现,则暗合了近代以来社会组织与政治国家的分化趋势,塑造了一个相对自由和开放的言论空间。从权力结构来看,平台的兴起,将传统言论自由场的“个人—国家”二元结构发展为“个人—平台—国家”三元结构,传统高度政治化环境下社会与国家的同质结构被打破。尽管科层式的国家权力与扁平化的社会权力在运行逻辑上各不相同,但二者并非零和竞争。
其二,在保护动机上,平台并不会天然地亲近言论自由,因为言论自由本来就不是多数平台建设的出发点、宗旨与目标。言论自由保护对多数平台而言并不具有实际意义,虽然各个平台都宣称自己保护言论自由,但往往是其附属性目标,并在很多时候往往不过是吸引用户的一种话语手段,平台对言论自由的保护终将服务于平台本身的利益或目的。
算法的上述影响,意味着通过言论维系社会共同体以及通过网络实现言论自由的愿望并不能由网络自动实现,自由且有效的沟通变得更为困难了:人们仍然可以表达,但没有听众;或者有听众,但无法得到对方理解;又或者理解了,但无法达成一致意见。从社会治理的角度来看,这将带来前所未有的新的社会风险,并威胁到公共价值的形塑和公共决策的制定。
其三,在与相关主体的关系上,平台既无法终局性地解决用户之间的纠纷,更无权裁决自身与用户之间的纠纷,其提供的申诉和救济渠道无法满足权利保护的需要,此时仍需要国家的出场。尊重和保护基本权利是国家的义务,平台履行该职责在“基本权利第三人效力理论”看来,仍然不过是基于国家权力履行职责予以规制下的一种行为,即“借助国家的干预来矫正私人主体之间偏离自由、平等的状态”。〔30〕李海平:《基本权利间接效力理论批判》,载《当代法学》2016 年第4 期,第55 页。
过程性规制对公共风险的化解,是通过规制数据和算法进而实现对言论的规制。言论主体的数据化人格决定了算法对信息的分配,算法对信息的分类、聚类等必须以数据为基础;同时,算法影响着言论表达的效果,“其排斥、涵盖、排名的权力决定着哪些公共印象是永久的,哪些是短暂的”,〔47〕Alexander Halavais, Search Engine Society: Digital Media and Society Series, Polity Press, 2008, p. 85.言论表达的最终结果都可转化成数据进入算法的新一轮信息分配过程。可见,进入算法社会,作为最终结果的言论表达只是言论的一个环节,数据和算法却实在地影响人们的信息获取、思维方式、行为习惯等言论的形成过程。算法社会言论的公共风险,并不只表现为作为结果的言论内容的极端化,而是蕴藏于言论生成的整个过程,包括信息同温层、封闭的言论社群,乃至算法对不同信息的分配权重。因此,对言论的规制不能坐待言论表达的结果及其风险的发生,而需要通过对数据和算法的过程性规制潜入言论的生成过程。
(三)国家权力与社会权力的角色分配
平台在专业技术和产业规模上的优势,不仅使其在“用户—服务商”关系中成为强势一方,其主控的代码规则和在信息收集、处理、传播中的集聚效应,甚至使其可以与国家权力分庭抗礼。因此,有论者认为言论自由的主要风险不再是公权力而是平台社会权力,言论社区中的问题可以依靠社区自创生秩序规则予以解决。基于言论技术条件变化要求改变言论自由的保障模式,并不是算法社会的新创。在工业化进程中,伴随报纸、广播、电视等媒介的出现,并在言论传播中扮演越来越重要的角色,类似声音就已经出现过。有学者认为,19 世纪中期法国取消言论的事前限制后,国家对言论自由的侵害逐渐消失,“影响公民言论、新闻自由实现的障碍并非来自国家公权力机关,而是来自作为私人团体的大垄断集团。由于大规模投资的要求和激烈的市场竞争,报社、电视台等新闻媒介的所有权逐渐集中于少数财产寡头手中,它们出于自身利益的考虑,对该媒体发表的内容施加事前的限制,由此使公民的言论自由、新闻自由受到这种来自私人团体而不是国家的侵害”。〔32〕刘志刚:《宪法“私法”适用的法理分析》,载《法学研究》2004 年第2 期,第41 页。
平台虽然掌握着技术优势和话语权力,但却不可能成为言论自由保护的主导力量。其一,平台所提供的信息推送、数据管理、言论传播等言论服务,仅仅是言论自由保护机制中的一个环节。算法社会言论自由的实现,需要“法院、立法机构、行政机构、技术专家、企业家,以及终端用户”〔29〕Jack M. Balkin, “The Future of Free Expression in a Digital Age” 36 Pepp. L. Rev. 427, 437(2009).等主体的共同参与。
新兴权力变化影响了言论自由的保护方式。平台作为一种重要的新兴社会组织形态,横亘于政治国家与公民个人之间,一方面对传统公权力形成一定程度上的制衡,缓冲国家对个人权利的直接冲击,为言论自由实现提供相对宽松的空间;同时,正如前文所提到的,平台并不总是言论自由的保护者,新兴权力架构驱使其成为言论空间的又一权力增长极。因此,三元结构中的言论自由同时面临着来自平台与国家的双重保护和双重风险。平台和国家所采取的保护方式是不同的:平台作为社会权力提供的保护往往是在公权力规制下借助技术手段实现的,即以代码与算法的方式介入言论的表达与传播过程,国家则倾向于通过“行为主义”〔34〕陆宇峰:《中国网络公共领域:功能、异化与规制》,载《现代法学》2014 年第7 期,第29-32 页。的方式预防言论的结果风险;平台可以直接作用于言论的主体,国家则通过其他主体或政策机制对言论主体施加间接影响;平台对言论发表与传播提供“事中”协助,国家则通过事前立法或事后的惩罚和救济予以保障;平台提供面向全体用户的无差别技术保障,国家则主要偏重于体现特定价值观念的某些言论类型。但更为重要的是,国家权力保护和以平台为代表的社会权力保护双层模式宪定性质、实质效能是根本不同的,当指向国家公权力风险时,平台是个人的佑护者;当指向平台社会权力风险时,国家是个人的佑护者。
总之,算法社会中,言论自由领域国家权力的宪定义务并没有发生变化;而新兴起的平台在言论领域中的角色是双面的,既可以是言论的保护者,也会成为侵害言论自由的帮手。因此,我们不能将言论保护寄希望于互联网秩序自创生;而要应对国家权力内在的“双刃剑”问题,必须重新界定国家保护的角色空间与作用方式。
三、算法社会言论自由领域的过程性规制
算法技术对社会生活的全面渗透,为国家积极作为提供了现实依据。算法技术深入生活各领域,并通过计算不同主体在地域、职业、生活习惯等因素上的重合,实现具有相同信息偏好的主体交叉,在增加了信息来源与信息结构复杂性的同时,将言论与社交、娱乐、消费等诸多社会领域深层融合。因此,算法社会的公共风险显著区别于从“街头发言者”到报纸电视的技术进步带来的言论场景变化,单一信息来源要素控制对言论风险的影响甚微,只有国家对数据和算法的全局性调整方有实现之可能。
算法社会言论的公共价值和公共秩序风险,构成国家积极规制的正当性来源。“以权利之名倡言的各种新思潮和新运动,如果剥离了权利话语据以证成的公共性资源,势必自断根基,极易膨胀为一种拒斥包容和沟通的‘唯我独尊’。”〔35〕秦小建:《宪法的道德使命》,法律出版社2015 年版,第163 页。面对复杂多样的言论类型和内容,对言论自由的个体化理解,不仅容易造成实践中的权利滥用,〔36〕比如在方是民名誉权纠纷案中,崔永元称方是民“方肘子”“斗鸡眼”“人渣”,方是民称崔永元“疯狗”“主持人僵尸”,他们均将此类言论作为言论自由的保护对象。参见“方是民等名誉权纠纷二审民事判决书”,北京市第一中级人民法院(2015)一中民终字第07485 号。也丧失了定义国家干预正当性以及权力边界的机会。算法社会言论领域国家规制的不力会导致对国家正当性的质疑。一是对作为抵御风险的国家组织形式正当性的质疑。作为一种组织形式,国家的重要目的之一即通过集体组织克服个体短视,增强集体抵御风险的能力。面对算法社会言论的割裂、分散和极端倾向,国家在抵御言论造成的社会分裂和动荡等公共风险上的不力,容易招致对其作为集体组织治理能力的质疑,国家的正当性会发生动摇。〔37〕参见谢立斌:《自由权的保护义务》,载《比较法研究》2011 年第1 期,第39 页。二是对国家权力运行正当性的质疑。言论自由作为民主秩序“绝对的建构性的要素”,〔38〕[德]黑塞:《联邦德国宪法纲要》,李辉译,商务印书馆2007 年版,第307 页。该权利的保障是民主化程度的重要指标。算法社会言论带来的公共决策困难、“赢者通吃”实际效果以及平台借由言论排名输出的价值观扭曲,会同时破坏线上和线下两种环境,这样的“言论自由”难以继续成为民主化的可靠保证。因此,国家必须确保言论特别是公共性言论的自由健康表达。
全局性与公共性,既是国家在言论自由领域积极作为的现实依据,也影响着国家规制的具体方式。维护国家安全、公共利益和基本权利等公共目标框定了国家规制的角色空间,而具有全局性的多领域技术治理则影响着国家规制的作用方式。下面,我们结合各国的具体举措展开分析。
植被覆盖的状况在一定程度上反映了植物进行光合作用面积的大小以及植被生长的茂盛程度,能代表植被的生长状态和生长趋势,是刻画植被在大气圈、水圈、岩石圈之间相互作用的一个重要参量。在研究全球气候变化对生态系统的影响时,常将植被覆盖作为评价区域生态系统健康程度的重要指标[3]。考虑到从行政区角度对黄土高原的植被覆盖进行研究不太准确,因此根据生态区的划分原则,将黄土高原划分为九大生态区,并对这九大生态区的植被覆盖、变化趋势、植被覆盖指数(NDVI)与降水之间的相关性、NDVI与气温之间的相关性分别作GIS遥感影像分析与处理,以探讨植被覆盖对水和热的响应。
(一)实体规制的技术难题与宪法风险
国家对言论的实体规制历史久远,并沿袭至今。为防止言论分裂社会,国家往往从言论的实体价值出发,在禁止撕裂社会言论的同时,通过激励或扶持政策鼓励维系符合社会共同体价值观的言论。传统言论规制在算法社会的延伸,尽管已经考虑到采用过滤软件等符合网络技术特征的规制工具,但它们仍旧是从“行为主义”的规制方式出发的,难以回应算法技术的需要。以我国侮辱诽谤言论的刑法规制为例,此类言论只有在情节严重的情况下才构成犯罪,而情节严重“是一个相当具有容扩性的条件,可以容纳动机、行为规模、对象、具体方式、社会影响等与言论表达行为有关的诸多事实”〔39〕唐煜枫、王明辉:《论言论自由的刑法保障——一个罪刑法定视野的关照》,载《甘肃政法学院学报》2010年第2期,第81页。。我国司法解释目前所列举的情节严重情形,比如点击、浏览、转发次数,被害人精神失常、自残、自杀等后果,多次诽谤他人或诽谤多人造成恶劣社会影响等,仍然延续传统物理世界的行为规制逻辑,单纯把行为的现实社会影响作为考量因素,忽视了算法技术条件下数据归类和数据关联在言论表达过程中产生的重大风险。同时,行为主义的规制模式只重视有偿删除信息,或以发布、删除信息为由要挟他人等显性的言论干预行为,忽视了有偿干预信息排名,利用机器人大规模刷帖等算法技术进行的隐性言论干预。总而言之,对规避算法社会言论的公共风险而言,实体规制是远远不够的,且面临着众多技术难题。
布兰尼斯拉夫布尔基,塞尔维亚人。1960年出生在塞尔维亚的瓦尔列沃市,毕业于贝尔格莱德电气工程学院,现在他依然在贝尔格莱德生活并成立了自己的软件公司。
此外,实体规制本质上是基于言论内容的规制,极易引发合宪性危机。以刑法为例,由于其禁止性规定本身的模糊性与算法社会言论场景的复杂多变,刑法规制“天然具有侵犯公民言论自由的危险倾向”〔40〕李会彬:《网络言论的刑法规制范围——兼评两高〈关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释〉》,载《法治研究》2014 年第3 期,第81 页。。而具有相对灵活性的言论激励政策同样面临宪法风险,比如,通过补贴等形式使个人或组织噤声的行为一般被推定为违宪。〔41〕Martin H. Redish, Daryl I Kessler, “Government Subsidies and Free Expression” 80 Minnesota Law Review 543, 546 (1996).就宪法对言论自由的保障机制而言,实体规制之所以存在风险,正是因为从言论内容出发容易引起国家权力膨胀。实体规制对信息池的塑造能力、对言论表达结果的直接干预能力,及其程序化和透明性的不足,极容易成为国家干预言论的借口。事实上,对言论内容是否具有公共价值、能否促进公共性的判断本身容易引发争议,〔42〕参见宋华琳:《美国广播管制中的公共利益标准》,载《行政法学研究》2005 年第1 期,第37 页。影响到此类规制的实际效果。
(二)过程性规制可避免技术难题和宪法风险
过程性规制是国家为了规避算法社会言论风险,以平台为主要规制对象,对以数据与算法为主要内容的言论表达与传播过程进行的规制。它区别于将算法及其衍生品作为言论而进行的直接规制。〔43〕See Tim Wu, “Machine Speech” 161 U. Pa. L. Rev. 1495 (2012). Also see Andrew Tutt, “Software Speech” 65 Stan. L. Rev. Online 73 (2012).在“布朗诉娱乐协会案”中,美国联邦最高法院认为视频游戏受宪法第一修正案保护,判决禁止在没有父母同意的情况下向儿童出售暴力电子游戏的法律违宪。〔44〕Brown v. Entertainment Merchants Association, 564 U.S. 786 (2011).视频游戏虽然依靠算法运行,但该算法的产出结果与文学作品无异,〔45〕Andrew Tutt, “Software Speech” 65 Stan. L. Rev. Online 73, 74 (2012).人们通过浸入式体验与算法设定的游戏人物进行沟通,在客观上产生了观点表达的效果。〔46〕但在“哈森伯格诉哈伍德案”中,法院并没有支持谷歌地图导航涉及言论自由的主张。See Rosenberg v. Harwood, No. 100916536, 2011 WL 3153314.此类将算法及其衍生品视为言论,并从言论内容出发而为的规制,仍属于实体规制的范畴。
平台不仅不是言论自由保护的宪定责任者,出于自身利益的考虑,平台往往还会成为言论自由的破坏者,甚至是共谋者,尤其对商业性平台而言,更是如此。基于对国家权力的畏惧和对自身经济利益的考量,他们倾向于执行更加严格的审查标准以规避可能的风险。更有甚者,会出现平台与国家的共谋——“对于政府而言,服务商掌握着管控用户言论所需的数据及技术,而对于服务商而言,与政府合作则能够给它带来经济上的利益”。〔31〕陈道英:《ICP 对用户言论的法律责任——以表达自由为视角》,载《交大法学》2015 年第1 期,第90 页。平台并不会主动化解言论公共风险,造成风险的技术要素和集聚效应反而可以为平台带来利益;同时,平台利用其掌握的权力干预用户的言论表达与国家权力相互依附,成为言论自由的重要威胁。
在很大程度上,过程性规制是价值中立的,它对所有类型的言论一视同仁。过程性规制不是从言论的实体内容出发的,并不直接针对某种具体的言论类型。与实体规制对仇恨言论、暴力言论、诽谤言论等言论类型的审查不同,过程性规制并不以言论的内容为标准主动识别哪些言论有益、哪些言论有害,而是关心信息的流动、言论的传播、言论的排名等程序性事务,而这些事务均与价值无涉。因此,过程性规制的一个显著优势在于,避免了在实体价值判断上的困难。
过程性规制对数据与算法的规制之目的在于打破算法社会网络言论的封闭环境,并扭转其极端倾向;其保护机制在于通过规范言论的运行秩序,防止强势言论主体垄断言论市场,并出现言论主体或社群间的以大欺小、以强凌弱。当出现纠纷时,过程性规制并不审查某一言论的内容是否有益,也不关心该言论的动机为何,而是关注该言论是否符合发言规则,是否通过技术手段(比如程序机器人)恶意扰乱言论市场,是否利用强势地位削弱乃至剥夺其他主体的发言机会等。因此,过程性规制并不单单侧重言论表达的结果,而是贯穿了言论表达的全过程,通过在事前信息获取、事中互动协商和事后言论效果等阶段确保言论空间的平等开放,以有效化解公共风险,实现言论保护的目的。
平台是国家过程性规制的重要凭借,对过程性规制的偏重,将影响到平台在言论保护中的功能发挥:一方面,过程性规制压缩了平台对言论的审查空间,减轻了平台私人言论纠纷裁判和公共利益衡量的双重压力,防止被附加过重法律责任的平台“进行较政府审查更为严格的自我审查”;〔48〕参见陈道英:《ICP 对用户言论的法律责任——以表达自由为视角》,载《交大法学》2015 年第1 期,第90 页。同时,将平台的言论保护角色聚焦于与数据和算法相关的程序性事项,平台可以将更多的精力用于数据保护、算法创新等具有明显专业优势且符合其利益诉求的事务中。
我们尝试从数据保护的几个关键问题入手,分析过程性规制在个人数据保护与言论自由保障平衡中的作用机理。个人数据的身份识别特征影响着言论表达。按照是否可以识别主体身份,数据分为个人数据和非个人数据两类。当前法律对数据的保护主要集中于个人数据,而保护的原因则被认为是出于“隐私权等人格利益和财产权”〔49〕程啸:《论大数据时代的个人数据权利》,载《中国社会科学》2018 年第3 期,第108 页。的需要。事实上,是否识别身份这一特征的作用范围远远超出民事权利的保护,它通过数据种类划分建立相对隔离的数字空间,主体可以据此决定是否以及如何与社会发生联系。对言论自由而言,言论主体的身份凝聚了其社会关系和社会地位,这些与主体的思考方式密切相关;同时,言论是否与身份切割则影响着言论的表达,言论主体以何种身份发言直接影响到言论的内容、后果和影响力。所以,国家在个人数据身份识别方面愈加严格的规制,一方面在保护隐私权,另一方面也是在保护言论自由环境。
研究表明,当构造活动期烃源岩压力封存箱已形成时,如此时发生构造运动导致封存箱盖层破裂,则实现了压力封存箱与外界储层的沟通。这种沟通一旦实现,地下的岩层就像一个泵把流体由较深的部位抽出来,然后将其向浅处或上方压力较小的地层中排驱,迅速完成烃源岩的排烃和聚集成藏过程。构造活动期后,随着流体排出和压力降低,裂隙逐渐封闭,开始新的能量积累、压力释放和排烃过程。因此,只要有深大断裂贯穿盐膏层,在地层压力下就可形成流体运移通道,导致盐水上涌形成盐水层。
我国将知情同意作为数据处理的重要合法依据,〔50〕比如《网络安全法》第22 条第3 款规定,网络产品、服务具有收集用户信息功能的,其提供者应当向用户明示并取得同意;涉及用户个人信息的,还应当遵守本法和有关法律、行政法规关于个人信息保护的规定。第41 条第1 款规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。构建起相对自主的言论自由空间,社会组织乃至国家均难以介入。通过知情同意保持个体在言论领域的独立思考和选择是必要的。有学者基于数据资源的公共性,建议将个人数据交由社会控制。〔51〕参见高富平:《个人信息保护:从个人控制到社会控制》,载《法学研究》2018 年第3 期,第92 页以下。从言论自由的角度来看,数据的社会控制存在风险,社会群体数据画像的趋同容易造成信息获取与言论表达的千篇一律,言论缺乏个性违背了通过言论自由确保多样性的初衷,并形成更大规模的言论回声室。在数据处理合法性上应参考“共同体的特点和具体场景中人们的普遍预期”,〔52〕丁晓东:《个人信息私法保护的困境与出路》,载《法学研究》2018 年第6 期,第204 页。以调和知情同意作为数据处理合法依据的个人控制与强调数据公共性的社会控制之间的紧张,在言论表达空间上实现个体的自主性与社群开放性的统一。
在个人数据保护制度中,被遗忘权最容易与言论自由联系起来。有学者认为,当被遗忘权主体要求删除网络旧闻时,需要衡量所报道事件的公共属性、信息的时效性和报道对当事人的影响,从而实现当事人的被遗忘权与言论自由的平衡。〔53〕参见刘文杰:《被遗忘权:传统元素、新语境与利益衡量》,载《法学研究》2018 年第2 期,第32-35 页。此时,被遗忘权成为言论自由的限制性因素。〔54〕比如在日本最高法院判决的被遗忘权案件中,认为网络搜索结果有助于公众获取大量必要的网络信息,这对互联网信息传播发挥着重要作用,并因此拒绝了删除相关信息的权利请求。参见平成28 年(許)第45 号,投稿記事削除仮処分決定認可決定に対する抗告審の取消決定に対する許可抗告事件,平成29 年1 月31 日第三小法廷決定。类似的判决也可见欧盟法院判决的“谷歌西班牙公司和谷歌公司诉冈萨雷斯案”,Google Spain SL and Google Inc. v. González, C-131/12.但对算法技术下的言论自由而言,被遗忘权的主要功能并不是作为一项实体权利与言论自由形成权利冲突,而是“将信息与其关联的主体脱钩”,〔55〕满洪杰:《被遗忘权的解析与构建:作为网络时代信息价值纠偏机制的研究》,载《法制与社会发展》2018 年第1 期,第215 页。从而形成言论传播的信息阻隔机制。所以,本质上,被遗忘权是一项具有“过程性规制”属性的设置,只不过在立法技术上将之设定为一项请求权,以便更好发挥个体主动性,对平台形成有效制约。在国家法律强制和有效监管下,主体通过行使被遗忘请求权,平台通过删除数据痕迹使言论主体的数据画像得以更新,言论主体的信息接收和言论表达方能打破言论回声室,进而摆脱陈旧信息。正是在这个意义上,巴尔金教授把被遗忘权视作“国家吸收言论基础设施服务提供者及其治理能力”〔56〕Jack M. Balkin, “Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation” 51 UC Davis Law Review 1149, 1206 (2018).的一个例证。
数据保护中的国家规制体现了过程性特征,算法规制亦然。在算法价值观上,确保言论主体在算法服务可获取性上的平等,对信息的匹配、赋值符合正义观念;通过增加算法透明度展现代码程序的价值偏好,防止通过算法进行价值引导并裹挟舆论;通过算法升级打击程序机器人对言论环境和言论市场的干扰。与数据保护类似,上述对算法规制同样是过程性的。它回避了基于言论内容而进行的审查,并力图避免公共性判断,通过开放的信息获取、平等的言论表达以及秩序化的言论空间,影响言论的形成与传播过程。
到了山西,不吃碗正宗的刀削面,那绝对算空走一趟。山西刀削面一讲刀工,二讲浇头,小小一碗面,里面有很多门道。削面功夫全凭手的劲头掌控,削出的面似空中飞舞的柳叶,又似水中畅游的银鱼,中厚边薄,均匀有致,长短六寸,方为上品。
国家上述数据保护和算法规制均从规避言论风险的全局性视角出发,积极介入言论表达流程,相比实体规制而言具有双重优势。一方面,过程性规制仅针对言论传播的数据和算法技术架构,降低了国家干预的宪法风险。过程性保护并不保护特定信息来源,或对某一种言论持有偏见;恰恰相反,它鼓励信息渠道的多元性和多种观点的交流碰撞。因此,个人数据保护和算法规制避免了基于言论内容限制的局限,而是面向所有言论主体,一视同仁地预防其在信息获取和言论表达上的偏狭。另一方面,从效果来看,从算法技术入手破解言论的公共风险更为有效。相较于实体规制对公共风险的点状修补,过程性规制贯穿言论表达的全过程,充分利用算法技术特征,通过抑制言论主体对单一信息来源的惯性依赖,以实现信息获取上的多元化;同时,它改变了“行为主义”规制下的个案审查,将规制范围覆盖所有接触相关信息的言论社群,通过打破言论社群的封闭状态,鼓励言论社群内部以及不同言论社群之间的沟通交流,避免社群的极端化倾向。
目 次
一、算法社会言论领域公共风险加剧
二、算法社会言论自由保护的模式选择
三、算法社会言论自由领域的过程性规制
* 齐延平,北京理工大学法学院教授、中国政法大学人权研究院博士生导师、智能科技风险法律防控工信部重点实验室主任;何晓斌,中国政法大学、德国汉堡大学联合培养博士研究生。本文系司法部国家法治与法学理论研究重点课题“大数据与网络安全立法研究”(项目号18SFB1005)的阶段性研究成果。
(责任编辑:马长山)
标签:言论论文; 算法论文; 言论自由论文; 规制论文; 国家论文; 政治论文; 法律论文; 政治理论论文; 国家理论论文; 国家体制论文; 《华东政法大学学报》2019年第6期论文; 司法部国家法治与法学理论研究重点课题“大数据与网络安全立法研究”(项目号18SFB1005)的阶段性研究成果论文; 北京理工大学法学院论文; 中国政法大学人权研究院论文; 智能科技风险法律防控工信部重点实验室论文; 中国政法大学; 德国汉堡大学联合培养论文;