上一期
下一期
目录
  • 57页
  • 58页
  • 59页
  • 60页
  • 61页
  • 62页
  • 63页
  • 64页
  • 65页
  • 66页
  • 67页
  • 68页
  • 69页
放大 缩小 默认 上一篇 下一篇
网络信息内容规制的平台权责边界
■张文祥 杨林 陈力双
  【本文提要】平台在网络空间治理中的重要角色愈加凸显,其基于技术优势和法律赋权形成的网络信息内容规制私权力,行使了原本由国家行使的权力。本文着眼于网络平台信息内容治理实践,探讨国家公权力与平台私权力、平台私权力与用户权利之间的关系,试图厘清平台信息内容规制的权责边界,寻求网络私人规制与公共治理中的权利保障与治理效率之间的平衡。提出为了实现网络良法善治,应当清晰界定平台的信息内容管理义务,防止平台履行义务中的任意加码或减量,限制平台私权力任性;实现平台内容审核处理的透明、可责和正当程序,规范平台的信息内容处置行为,推进网络信息内容的多元主体协同治理,实现中国特色网络治理模式下的“个人-平台-政府”三元规制结构的均衡协调。
  【关键词】平台 信息内容规制 权责边界 私权力 网络综合治理
  【中图分类号】G201
  
一、问题的提出
  人工智能、大数据、云计算等数字传播技术的广泛应用,深刻重塑了信息传播格局和社会结构形态。平台的基础设施化和基础设施的平台化(Plantin,2016)带来社会的“深度平台化”,网络服务提供者成长为社交媒体、信息聚合、生活服务、游戏娱乐等各类网络平台。作为“新型传播生态中的革命性再造”(喻国明,李彪,2021)结果,拥有智能化信息聚合、分发和社交功能的网络信息平台深刻影响着信息内容的生产、传播和舆论生成,“平台位于我们生活的中心”(Gehl & McKelvey, 2018)。面对网络空间的海量信息传播行为,政府难以凭自身技术能力和执法资源实现有效监管,选择通过立法和行政等手段,明确平台的信息内容管理义务和责任,借助平台之手来实现网络信息内容规制的公共目的。平台在网络空间治理中的角色得到凸显,而平台拥有的超国家权力成为全球关注的问题(史安斌,王沛楠,2017)。
  平台私权力对网络空间进行治理引起国际社会关注的事件首推2021年1月Twitter、Facebook等社交媒体对时任美国总统特朗普的社交账号“全平台下架”。“作为大型数字科技公司的社交平台限制言论的非凡权力,可以让世界上最聒噪的人闭嘴,其威力比弹劾和败选都要严重”(Spencer Bokat-Lindell, 2021)。平台采取的封禁措施引发了公众对科技巨头权力过大的担忧,同时依托平台展开规制已成为世界各国的普遍选择。2017年德国出台的《改进社交网络中法律执行的法案》(简称《网络执行法》)赋予网络平台严格的信息管控义务。欧洲议会投票通过关于提高网络平台检测和删除恐怖主义内容的立法提案(查云飞,2018)。我国早在2016年11月,东方网时任总裁两次致信腾讯CEO马化腾,公开质疑网络平台对信息内容的审查和限制的权力正当性。2021年至今,我国围绕网络平台内容生态、反垄断等问题密集出台规范性文件,采取了一系列治理措施。
  平台治理的主体是FAMGA(脸书、苹果、微软、谷歌、亚马逊)、BATT(百度、阿里巴巴、腾讯、今日头条)等网络平台企业,治理的主要依据是平台根据国家立法制定的用户协议、隐私条款、内容标准等内部治理规则,借助人工审核和技术过滤手段,对平台违法有害信息进行判断和处理。在我国的网络治理实践中,平台被要求严格履行“主体责任”,发挥主观能动性,承担积极作为和不作为的义务,并对拒不履行信息内容管理义务的行为课以行政处罚或刑事制裁(刘权,2022)。从行政法学视角看,立法和行政机关与平台的关系并非“行政委托”、“行政授权”,也不能视为“行政任务民营化”,而只是平台基于法定义务对平台内信息内容进行规制。实定法仅赋予平台进行规制的义务,并未赋予平台相应的行政职权(孔祥稳,2020)。平台对用户的言论表达和信息内容进行规制,行使了原本由国家行使的权力,但其所行使的不是国家明文授予的公权力,而是作为私主体的平台基于对用户管理支配的优势地位而形成的一种私权力,或者是网络主管部门的监管要求、随机指令等在平台内部的体现,即以私权力形式体现的公权力。在平台崛起的智能互联网时代,形成了“公权力-私权力-私权利”之间复杂博弈的新格局,三者之间发生的合作与对抗机制很大程度上改变了以往国家与社会、权力与权利的关系结构与功能(马长山,2018)。
  如何看待平台对信息内容限制的巨大权力及其与各行为主体的关系,是网络空间平台治理需要解答的核心问题。本文所指的平台主要指基于用户创建的内容和人与人、人与信息内容之间形成的连接关系,集中整合了内容共享、人际交流、社交关系和商业交易等多重功能的大型网络服务提供者。内容审核构成这些平台存在的必要机制,商业化是这些平台的底色。本文着眼于网络平台信息内容治理实践,探讨国家公权力与平台私权力、平台私权力与用户权利之间的关系,试图厘清平台私权力的边界与制约之道,寻求网络私人规制与公共治理中的权利保障与治理效率之间的平衡。
  
二、网络平台的信息内容规制结构和规制依据
  (一)网络平台“个人-平台-政府”的三元规制结构
  经典的表达自由制度被形象化地理解为“对街头发言者(the street corner speaker)的保护”(左亦鲁,2015),即为了保护公民批评政府的自由,防范政府对公民个人言论表达的压制。政府依据相关法律对公民言论进行限制,表达权面向的是“个人-政府”的二元对立关系。但政府以外的私主体对公民言论进行审查的例子在历史上早已出现过。1557年,英国王室通过委托书文公司(Stationer Company)行使审查职能,对媒介具有全盘控制权力。虽然书文公司作为一家私营企业对出版行使控制权,但其实质上是基于政府的委托授权,仍属于政府权力与公民言论自由的对抗(张千帆,2014:523)。在传统媒体时代,存在私人实体从事媒介审查和言论管控的现象,但私主体的力量并未对言论自由构成严重威胁,国家公权力才是信息和言论的监管者。
  进入互联网时代,尤其是在移动社交环境下,“街头发言者”的模式已成为过去,Twitter、YouTube和其他社交平台所赋予的表达功能并不亚于《纽约时报》(Ammori M., 2014),言论自由已不只是属于媒体机构的自由,而是所有人的自由,每个人都具有自我表达和言说的机会,公共表达的主平台从街头和传统媒体转移到了少数超大型社交网络平台上,这些平台在网络信息活动中占据主导性地位,取代大众媒体成为超级把关人(super-gatekeepers)(帕梅拉·休梅克,韩纲,2020)。因为平台把关者的出现,信息流通和言论表达的“个人-政府”二元关系转化为“个人-平台-政府”的三元关系。在这种三元结构下,政府对信息内容的直接规制转向依靠平台的力量。平台以技术、资源优势,对海量用户产生的信息内容进行审核和处理,其规制优势是政府等公共部门不可比拟的:用户发布的违法有害信息,平台可借助关键词过滤等技术,以较低成本将其过滤掉,防止扩散;对多次发布违法信息等严重情形,平台可封停账号;对信息发布者构成违法犯罪需要追究责任的,平台也能根据用户注册信息迅速确认其身份。借助平台力量对网络信息内容进行规制,比政府直接管控的成本更低、见效更快,因此成为国家渗透、摄取乃至控制数字社会的中介力量,催生出“基于平台的治理”的全新模式(单勇,2022)。当然,平台规制网络信息内容的权力引起的争议也更多。有学者认为平台审核造成了文化、知识和信息源的单一化、私人操纵等问题,不利于中小参与者创新发展,其以经济动机为目的的错位激励机制戕害健康的数字公共领域(Balking, 2020)。
  (二)平台规制网络信息内容的法律依据
  我国从1994年接入互联网以来,秉持“党管互联网”原则和网络意识形态安全要求,形成了由《网络安全法》、《互联网信息服务管理办法》等法律、法规、规章组成的一整套网络信息内容管理法律制度,与网络主管部门的随机指令相结合,划定违法信息的范围和标准,明确网络服务提供者对违法信息进行管理处置的义务,在行政法和刑法层面确定网络服务提供者不履行违法信息管理义务的责任,构成平台规制网络信息内容的法律授权和约束规范。
  最早明确网络违法信息标准的是1997年公安部发布的部门规章《计算机信息网络国际联网安全保护办法》(2011年修订),第五条明确“任何单位和个人不得利用国际联网制作、复制、查阅和传播”的九种信息,这一规定在2000年国务院颁布的行政法规《互联网信息服务管理办法》中得到完善后被简称为“九不准”或“禁载九条”,①调整的行为包括“制作、复制、发布、传播”相应信息,调整对象为“网络服务提供者”,自身生产或不生产信息内容的平台均纳入了调整范围。“九不准”在之后制定的各类互联网内容管理的规范性文件中一再重复规定。在《北京市微博客发展管理若干规定》(2011年12月16日施行)、《网络信息内容生态治理规定》 (2020年3月1日施行)扩展为“十一不准”,后者同时还明确了七种“鼓励制作、复制、发布”的正能量信息、九种“应当采取措施,防范和抵制制作、复制、发布”的不良信息,进一步丰富了平台信息内容规制的要求。《网络安全法》 (2017年6月1日施行)未逐条罗列违法信息,但总则第十二条明确“任何个人和组织使用网络不得从事的活动”与“九不准”高度重合。
  平台对违法信息内容的处理义务,我国不同网络立法表述各有差异,分别有三项义务、四项义务和五项义务的规定。《互联网信息服务管理办法》规定了网络服务提供者对“九不准”内容发现后“停止传输”、“保存记录”、“报告有关部门”等三项义务,同时明确互联网信息服务提供者发现其网站传输的信息“明显属于”违法信息的才承担该义务。2012年12月28日,全国人大常委会通过的《关于加强网络信息保护的决定》首次把三项义务拓展为五项义务,即“发现法律、法规禁止发布或者传输的信息的”,应当立即“停止传输”、“消除信息”、“防止扩散”、“保存记录”、“报告有关部门”。2021年1月发布的《互联网信息服务管理办法(修订草案征求意见稿)》和《网络安全法》均沿用该决定的规定内容。不过,新近颁行的两部规章对平台的处理义务做出不同表述。其中《网络信息内容生态治理规定》只规定了三项义务,网络信息内容服务平台发现违法和不良信息的,应当“立即采取处置措施,保存有关记录,并向有关主管部门报告”。《互联网新闻信息服务管理规定》则规定了互联网新闻信息服务提供者对违法信息的四项义务,即“停止传输”、“消除信息”、“保存记录”、“向有关部门报告”。从文义理解,这里的三项义务、四项义务并不是回到互联网立法早期,表述虽与五项义务有所区别,义务内涵应是一致的。
  在法律责任方面,为了督促平台履行对违法信息内容的管理义务,对拒不履行该义务的主体设定了行政责任和刑事责任。《网络安全法》和《互联网信息服务管理办法(修订草案征求意见稿)》对平台未采取停止传输、消除信息、保存有关记录等措施的,或有“拒不改正”、“情节严重”的情形,分别给予警告、没收非法所得、处十万元以上五十万元以下罚款、责令暂停相关业务、停业整顿、关闭网站、吊销相关业务许可证或吊销营业执照等行政处罚,还可对主管人员和其他直接责任人员个人处一万元以上十万元以下罚款。与行政处罚相配套衔接,刑法修正案(九)第二十八条规定了拒不履行信息网络安全管理义务罪,对网络服务提供者不履行信息网络安全管理义务,经监管部门责令采取改正措施而拒不改正,出现“致使违法信息大量传播”等特定情形的行为进行刑事制裁。
  从以上三方面分析可看出,我国已构建起一个以平台为中心、行政法与刑法相衔接、多个部门规章和规范性文件对平台信息内容处理义务具体化②的规制体系。国内学者认为,该制度的实质是政府监管部门延续“代理监管”思路,要求平台发挥技术和资源优势,“自己的孩子自己抱”,对平台信息内容履行事前审查、事中监控报告、事后处理等一系列配套管理义务(周光权,2018)。国外研究者则把由平台行使原本属于国家管理社会的权能,对用户的言论和信息内容进行审查、控制和处理的做法称为“附属审查”(collateral censorship)(Felix T.Wu., 2013)。这种由平台协助甚至替代监管部门完成维护网络秩序公共目标的制度(冯建华,2022),发挥平台发现和处理违法有害信息的便利和高效,成为世界各国认同的网络信息内容治理模式。但该制度体系在平台如何发现违法信息、如何判断违法信息、平台责任追究等方面还存在一些问题。
  首先,平台对网络违法信息的“发现义务”问题。依照违法信息的出现时间,网络内容管理义务可分为三类:其一是对网络内容的预先审查义务;其二是网络内容的实时监控义务;其三是违法信息在网络空间出现之后的报告、删除等处理义务。欧美国家早先的互联网政策大多主张,对他人在网上发表的内容,网络服务提供者没有预先审查和实时监控义务。美国的立法并未就网络服务提供者的一般性审查、监控义务做出明确规定。对于已经出现的非法内容,除非法律有特别规定,网络服务提供者也没有报告、删除等强制管理义务,而是鼓励平台删除有害内容。在特朗普社交账号被封禁事件中,平台就是援引《传播净化法》第230条(Communication Decency Act,简称CDA)主张为责任豁免。该条款并不要求网络服务提供者对第三方生成的内容进行监控和审核,但如果平台主动过滤和管理不良信息则不承担责任。根据法律条款的文义分析认为,我国法律同样没有规定网络服务提供者的内容审查义务。理由是,从事互联网服务的单位承担该义务的前提是“发现”,并未赋予其必须主动“发现”违法行为和有害信息的义务,而是在有人告知或有证据证明其确知相关有害信息存在的情形下,其应承担事后被动删除、报告等义务,而非事先主动审查、监控的义务。但从平台被强调履行主体责任的制度实际运行看,网络平台显然被要求承担对用户传输内容的预先审查义务。因法律法规对网络内容管理义务的范围并不明确、具体,实践中常常出现限制标准不一、限制随意性大的问题,影响到网民对网络管理制度的认同度,也造成网络平台的过重负担。
  其次,平台对信息内容违法性的判断问题。如前所述,我国现有网络信息内容规制立法明确了“九不准”、“十一不准”等违法信息范围,但违法信息的判定标准却并不明晰。不同规范性文件的条文设计繁简不等,相关立法在统一性、合理性、明确性等方面存在一定欠缺,客观上造成“同案不同判”、恣意解释、权力滥用、适用困难等问题(尹建国,2015)。对于专业性远不及司法机关的网络平台来说,要对网络空间的海量复杂信息和观点的违法性做出准确认定,难度更大,误判概率更高。
  其三,对平台履行信息内容管理义务进行行政和刑事问责的问题。平台的义务来自法律、行政法规的规定,但因为法律法规对平台的“发现义务”界定不清,对何种情况尽到义务、何种情况未尽到义务难以准确判断,导致执法中以平台是否存在违法信息而非是否有过错进行问责,实际上奉行了“结果主义”,让平台对信息内容承担了严格责任(姚志伟,2019)。按照《网络安全法》和全国人大常委会《关于加强网络信息保护的决定》,平台“发现法律、法规禁止发布或者传输的信息”,是承担管理和处置义务的前提。对“未被发现”和“未能被发现”的违法信息或发现后履行了管理和处置义务的情形,则不应承担责任。立法中的“过错主义”变成执法中不问过错的“结果主义”,很大程度上是因为网络治理的行政主管部门把平台当作网络信息内容的“总把关人”,要求其对该平台的所有信息内容负总责。但在移动智能社交环境下,不加区分要求平台对所有信息内容进行把关和负责,即使平台按照要求配备总编辑、实行编辑责任制,人工审核和智能审核相结合,不仅运营成本大幅度增加,信息效率会受到影响,还可能会对平台技术创新和用户内容创造形成负向激励(赵鹏,2016)。同时会助长平台私权力的任性和滥用,为避免被行政和刑事问责,对公民表达自由造成过度限制。
  (三)平台规制网络信息内容的“内部规则”
  作为低成本实施法律、落实网络治理要求的方式,国内外网络平台几乎都建立了一套平台内部约束和规范用户行为的规则体系,网络用户在平台注册个人账户时,用户需同意并签署平台“用户协议”、“行为规范”、“服务条款”等明确的服务规则、惩罚措施,在使用该账户发布和获取信息、接受平台服务时就要受这些平台内部规则的约束。平台通过与用户签订协议的方式实现了法律义务的“内部规则化”或契约化。《腾讯微信软件许可及服务协议》的“用户行为规范”部分,单列“信息内容规范”,包括五类“禁止发布、传送、传播、储存”的内容,一是违反国家法律法规规定的内容;二是侵害他人名誉权、肖像权、知识产权、商业秘密等合法权利的内容;三是涉及他人隐私、个人信息或资料的;四是骚扰、广告信息、过度营销信息及垃圾信息或含有任何性或性暗示的;五是其他违反法律法规、政策及公序良俗、社会公德或干扰微信正常运营和侵犯其他用户或第三方合法权益内容的信息。《微信个人账号使用规范》罗列了更繁杂的违规内容类别。Facebook在发生剑桥公司数据泄露事件后的2018年4月,首次发布了一份8000字的内容审核指南,将不可接受的帖子和内容分为六类:暴力和犯罪行为、安全、争议内容、信誉与真实性、尊重知识产权和内容相关请求。随后宣布扩大其内容核查范围,与第三方视觉机构专家进行合作,把事实核查的部分扩展到图片和视频,并引入机器学习机制,通过AI来识别虚假信息。Facebook的部分治理规则因被其他平台普遍采纳而逐渐形成不成文的国际性规则(方兴东,陈帅,2019)。在我国,以用户协议等平台内部规则约束规范用户行为的治理方式已得到网络主管部门的认可,这一要求在《互联网新闻信息服务管理规定》等部门立法中已有体现。
  平台在对违法信息的处理方面,多采用内部自行判断的方式,借助人工审核和自动化过滤器技术过滤,首先进行事前过滤,把违法信息挡在传播平台之外。目前各大平台使用的内容审核和过滤技术包括关键词过滤、URL站点屏蔽、数据库过滤、算法过滤等。其次根据主管部门要求或用户举报投诉,对平台违法有害信息进行核查和处理。对一些难以判断真伪对错的信息,如网络谣言治理会引入第三方事实核查,或者聘请专家委员协助认定和处理。平台对违法信息和信息发布主体的处理措施主要包括:屏蔽信息(包括但不限于折叠内容、将内容处理为仅发布者自己可见等)、删帖(停止信息传输)、限制账号功能(如限制发朋友圈功能、评论功能、使用群聊相关功能)、账号禁言(一定时间段或永久停止发言)、封禁账号(暂时或永久关闭用户账号)。各种处理方式的具体适用条件、判断标准、处理程序等在平台内部规则中有所说明。平台对发布违法信息用户的处理,设定了一定的救济程序。用户对平台的处理决定不服的,可提出申诉复核。如《微信个人账号使用规范》中的“投诉及申诉机制”,明确用户发现微信违反该规范的行为或内容可发起投诉。因违反该规范而被微信平台采取相关处理措施,对处理结果有异议的,可提交相关证明材料向微信客户端或拨打客服电话进行申诉。
  
三、网络信息内容平台规制的问题审视
  在前述“个人-平台-政府”三元规制结构下,平台在网络信息内容规制中发挥了“超级把关人”功能,对网络空间的违法信息进行审查和处理。但这种规制结构还存在明显的缺陷和问题:平台作为私主体成为网络空间的规则制定者、规则执行者和争端的仲裁者。不受制约的私权力同样会被滥用,在国家施加的严格责任压力下,平台的信息内容规制存在限制过严,个人言论空间被过度限缩;平台作为私权力主体构建的内部规则,使公民权利契约化和私法化,用户与平台的争议只能向平台申诉,不受公法规范约束,用户权利保护弱化,“个人-平台-政府”三元结构难以达到均衡状态。
  (一)网络平台的私主体规制过严可能造成“寒蝉效应”
  网络平台本应是开放宽容的交流和表达场所,为公众带来获取信息、了解世界、公共讨论、民主参与的便利,但平台的内容审核、过滤、屏蔽等内容规制行为极大影响了社交平台的开放、联系和分享特性。面对政府对平台履行主体责任的刚性要求,加上法律法规对违法信息的界定范围和判定标准不够明晰细致,平台为了规避由此产生的政策和法律风险,“宁失之于严,不失之于宽”,会以更模糊宽泛标准从严判定和处理涉嫌违法的信息内容(郑海平,2018)。相较法律法规要求,微信、微博平台对违法信息的认定标准均存在扩张倾向。如《微信公众平台服务协议》明确的禁止发布、传送、传播、储存的违法内容多达12项,把大量法律规定以外、标准含糊不确定的内容列为禁止对象,使网民对所生产、传播信息的合法性难以形成稳定预期,网络平台的随意封删使其动辄得咎。网络信息内容规制领域引入举报投诉机制,本意是吸引公众参与治理,但由于平台对举报投诉行为缺乏完善的制度设计,存在明显的制度失衡:因用户缺乏专业判断,被举报投诉的信息可能并不违法;因举报投诉零成本,错误举报投诉和恶意举报投诉也无需承担责任;举报投诉机制过于偏向举报投诉者。平台为了避免被政府问责,对举报投诉存在反应过度、误判误删等现象。如中央气象台官方微博发布的台风黄色预警因为关键词“涉黄”而被删除,引起公众强烈批评(北京晨报,2017)。
  研究发现,英美等国也存在平台接到投诉后未经认真核查就把合法内容下架的问题。前述CDA230条款成为美国平台审核言论最重要的正当性依据,其弊端也逐渐显现出来。从法律层面看,平台与用户同属私人主体,处于同一法律主体层面。平台却能够对用户的言论进行阻止、审查和控制,行使原本属于国家管理社会的权能,因此发生附属审查的问题。但CDA230条款明确规定平台并不属于出版商,享受中介免责条款的庇护,并且鼓励和敦促平台积极审查和限制其认为的不当言论,造成了平台随心所欲地管理内容,对信息内容进行整理、选择、审核、过滤、优先推荐、限制等,行使与传统出版商一样的编辑裁量权。当涉及平台自身的利益时,平台往往将自身的言论(例如商业性的广告言论)优先于用户的言论;当不涉及平台自身的利益时,为了避免被问责,平台会下架政治和法律风险高的言论。受保护和不受保护的言论都会被平台限制,平台的随意限制随处可见。从国内外情况看,完全赋权并依赖平台单个私人主体对网络信息内容进行审查和规制,以解决违法有害言论带来的问题,很可能造成网络表达的“寒蝉效应”。
  (二)平台内部规则运行缺乏透明度、正当程序和问责机制
  社交平台对信息内容的审核和规制缺少足够的透明度、正当程序和问责机制。平台对外公开的仅限于隐私条款、社区规则、版权协议等,内容审核规则几乎不对外公开,基于用户信息形成的平台数据被作为私有财产和商业秘密保护,平台与政府间的合作很大程度上也是不透明的。对用户来说,平台的审核机制几乎是一个黑箱,无论是机器审核还是人工审核,都存在不透明以及过度限制言论的情况(Keller, 2015)。外界很难知道平台内容审核的流程、具体细节,进而也就难以获得足够的信息来了解、审计和监督平台技术和权力。相反,平台却对用户实行强制实名制和“激进的透明度”(Gorwa, 2020)。
  按照正当程序原则,行政主体要做出对当事人不利的决定之前,应当告知当事人决定的内容和理由,给予当事人陈述申辩的机会,告知其救济的途径。③但作为私主体的平台对用户信息内容进行处理时,既不告知用户,也不做说明,有的平台规则中甚至列明删除屏蔽违法内容、对账号施以封禁注销等处罚前“有权不经通知”。平台申诉机制也透明度不足,既不告知处理理由和依据,也缺乏独立的裁决者,不能形成实质性的交涉,申诉的实际价值有限,用户依据与平台的契约关系寻求公民权利的司法救济存在制度难题。
  信息的不对称更容易滋生腐败、加大权力势差,使得隐性的言论管制更容易施行,这些不透明的操作使得原本悬而未决的正义问题复杂化(Robert G., Reuben B & Christian K., 2020)。平台过滤技术和推荐算法不仅仅是一个对内容进行过滤和排名的工具,它融合了平台管理层的价值观、平台商业模式、广告商的兴趣、用户言论数据和行为轨迹、社交关系等多重因素,平台可以让特定的言论和价值观享有被优先推荐的特权。例如,早先Facebook前员工就爆料该平台趋势话题(trending topics)常规性压制美国右翼保守派的代表,“注入”话题框架。谷歌也被爆料操纵搜索结果,有意隐藏希拉里的负面信息,为民主党助选(方师师,2016)。由于算法处理过程的不透明,民众对平台的内容审查普遍缺乏信任(Riley Griffin, 2018)。
  在系统自动屏蔽或过滤言论的过程中,用户没有机会对过滤提出质疑,也就谈不上对发言者的程序性保障。用户对言论为何会触发平台的内容审查和制裁并不知晓,平台有时甚至不会通知言论和信息内容已被审核和限制,若是通知也只会进行笼统而抽象的条款告知,并不会对哪个部分的内容违反了具体的哪一条法律法规、社区规范或平台政策条款进行具体说明。④用户在申诉救济中往往只能得到机器人的自动回复,不能获得足够的解释和申辩的机会。未经正当程序就限制公民正当权利的做法,造成平台在对网络内容的管控中过度删除或过度阻挡的情形。
  (三)平台内部规则自成体系难受公法规则约束
  如前所述,平台在内部规则制定、执行和裁决中形成了集于一身的准立法权、准行政权和准司法权,构成自成体系的类国家权力,内嵌于“服务协议”中的网络平台权力逃逸了与公权力相伴而生的权力监督体系,由此产生权力的肆意性(李延枫,2022),增加了私权力侵犯公民表达自由的风险。
  在网络信息内容生态的管理中,平台规制和法律法规并行并施,两种“法”虽然在制定主体、实施方式、效力机制等方面存在着较大差异,但二者在功能和目的上都是网络空间治理的一种手段和工具(罗英,谷雨,2021),对用户而言都具有约束力和执行力。平台在服务条款或合同协议中以各种各样的形式保留自身的权利,放弃用户的权利(Gillespie et al., 2020),但用户并无参与平台规则制定的机会和协商议价的能力,仅有选择接受与否的权利。用户只能在“同意-退出”中二选一,要么同意,继续受平台内部规则约束,被平台收集个人信息和数据、接受平台的审查和制裁;要么选择退出,那么用户前期经营的数字形象、社交人脉、情感投资、经济投入等都将不复存在。如今大型社交网络平台越来越接近公共空间的入口,公众依靠社交平台连接政府、社会和私人间的沟通,社会议题的讨论高度依赖平台,一个被主流社交平台拒之门外的人可能无法再找到其他类似的社交网络来传播信息和表达观点。
  平台独占了内部规则的制定权,规则运行中也因平台的私主体身份而规避了正当程序、信息公开、问责等公法原则的限制。而在权利救济方面,依靠公法规范建立的公民基本权利保护体系难以在平台信息内容规制中适用,被平台以各种理由删除信息或封禁账号的网民只能依靠违约诉讼来寻求救济。平台在信息内容和言论规则的制定中既当裁判员又当运动员,对用户言论进行全面审查和管控,限制了用户正当接触信息和意见机会的同时,还构建了逃避公法规则对公民基本权利保护的内部规则体系。
  
四、网络信息内容规制中的平台权责边界调适
  在网络信息内容的治理实践中,法律法规赋予平台的信息内容管理义务、政府主管部门施加的主体责任,形成“国家管平台,平台管其他”的治理结构,强化了网络信息内容规制中平台的强势地位。为了约束和限制平台私权力,首先应当完善法律法规,进一步界定平台的信息内容管理义务,确定更明晰准确的平台责任,防止平台履行义务中的任意加码或减量,限制平台私权力任性;其次要实现平台内容审核处理的透明、可责和正当程序,减少对用户权利的损害,规范平台的信息内容处置行为,改变公法规则难以约束互联网平台内部规则的状况,推进网络信息内容的多元主体协同治理,实现中国特色网络治理模式下的“个人-平台-政府”三元规制结构的均衡协调。
  (一)清晰准确界定平台的信息内容管理义务,合理设定平台权责
  随着网络治理模式的演进,治理的概念超越了原本的国家中心主义,逐渐由自上而下的政府监管转变为上下协同的合作治理,不论哪种治理模式,政府都是平台治理的重要参与主体。但如前文分析,政府监管与平台自治目前尚处于没有磨合好的状态,公法规则难以约束互联网平台内部规则,两大治理主体均无法单独获得最佳效果。在技术和资源优势下,平台目前实际拥有超越一般治理主体的治理权力,其权力边界仍处于不断扩张的态势。如何合理设置平台的权责边界,基于平台作为网络服务提供者和技术掌控者的角色对其进行合理的权责配置,对于平台的网络治理体系完善具有决定意义。
  作为网络治理的主导者,政府需要通过相互制衡的制度设计保障平台拥有合理的自治权,同时又限定平台自治权力的扩张侵害其他主体的权益边界,达到网络治理多元主体局面下权责配置的平衡。目前平台的责任权重总体呈现加重趋势,但政府尚没有明确的规范依据对平台被赋予的责任进行制度上的约束,平台以“责任”为借口极易在技术乃至制度层面自我赋予更大的“权力”,要合理设置平台权责,根据对终端信息数据施以控制的能力大小及由此带来的总体社会成本,不断更新和优化网络服务提供者权责配置的价值理念和可行路径(冯建华,2022)。在网络平台治理规则的摸索中,需要拓展开放性维度,实现平台权责配置的体系化、动态化,构建起稳固平衡的平台治理新架构。通过以下几方面对平台权责内容的明确和清晰,实现政府与平台在网络治理中的权责平衡,避免平台行为不受公法规范调节。
  从确定平台对违法信息的“发现”和判断标准入手,界定平台的信息内容管理义务和责任。应当区分信息内容侵害的是公共利益还是私人利益,对违法信息的性质和特点进行分类和区别对待。首先,对侵害公共利益的违法信息,应根据“发现”的不同路径分别确立标准。主管机关通知处理的违法信息,因主管机关是违法信息认定和处理的有权职能部门,可构成平台“发现”违法信息义务的来源。对于其他“发现”类别的涉嫌侵害公共利益的内容,需要经第三方专业机构(如事实核查机构)、或由专家、学者组成的咨询决策机构寻求帮助,或符合经用户同意的社区规则,而不是由平台垄断事实和真相的独断权。其次,对于涉嫌侵权的一般性内容,如侵犯版权、隐私权、名誉权等内容,平台应该做好权利人间的通知与转通知工作,告知其投诉或起诉权及合理期限,在合理期限内可以对内容采取必要的措施,期限届满时终止所采取的措施,而不是“通知-删除”。平台尽到法定义务,将综合考虑平台的控制能力、技术水平、内容加入程度、是否受益等要素,并不必然对所有违规信息都承担侵权责任。
  完善用户的举报投诉机制,举报者应提供所举报信息违法的证据和理由,对恶意举报者应有暂停举报功能等相应处置措施,建立平台与主管机关的联系沟通制度,信息违法性认定存在困难时,可交主管机关依据一定程序进行认定。平台对信息违法性的认定,法律法规应统一确认为“明显”标准,即无论平台主动获取或通过举报投诉获取的违法信息,只有当相关信息内容的违法性明显到一般理性人能够直接做出判断时,平台才负有相应的处理义务,否则平台仅应当依据主管机关指令来做出最终的处理决定(孔祥稳,2020),避免未受过专业训练的平台审查人员对信息内容做出错误判断和处理,避免平台对信息内容承担过重的管理义务。对所侵犯的并非公共利益而是私人利益的信息,不应要求平台进行普遍的事前和事中监控审查,对这类信息的“发现”主要依赖主管部门的指令和“通知-删除”规则中的权利人通知。但对侮辱诽谤等侵害公民人格权的信息,如涉及对公众人物和公共事务进行监督等与公共利益有较大关联的情形,信息违法性判断可参照侵犯公益的信息进行适当调整(郑海平,2018)。
  (二)实现平台内容审核和处置的透明、可责与正当程序
  平台内容审核系统的内容审核过程应当更加详细和清晰,或在通知用户内容被删除时给予更多的政策解释,这不仅有助于鼓励用户更好地对自身言论进行管理,更重要的是,这将减少而非增加平台内容审核量(West, 2018)。通常认为,善治取决于透明度(Braithwaite, Drahos, 2015)。提升平台内容审核与管控的透明度是言论自由保护和平台治理的起点,也是建立正当程序和问责的起始点,更多的信息披露和处置的透明度将会带来更多的问责与监督。
  通常提到平台的内容审核,有两个重要的民间社会组织倡导的准则可资借鉴,一个是马尼拉中介者原则(Manila Principles),另一个是圣克拉拉原则(Santa Clara Principles)(Ganapini, M. B. et al, 2020)。马尼拉中介者原则要求平台的审核内容遵循正当法律程序,作为中介者的平台责任必须由法律明确规定,没有司法裁定,不得要求中介者对言论内容进行限制,限制言论内容的请求必须清晰、明确,且依据正当法律程序,对内容进行限制的命令和实际做法都必须通过必要性和比例原则的检验,并遵守正当法律程序。圣克拉拉原则要求网络平台建立内容审查透明度和问责机制,规定社交网络平台提供给使用者公平、公开、透明、尊重用户、符合比例原则的言论审查标准,平台提供者应主动向社会公布因违反其内容审查准则而被删除或停权的贴文、账号数量以及被标记的帖子等相关信息,通知每一则被封删的贴文和账号用户,告知并向其合理解释被封禁的具体原因、依据的理由、申诉和救济的渠道,让用户可以就每一则被删除和封禁的贴文及账号提出异议。
  德国《网络执行法》对透明度和正当程序做出具体规定,举凡每年收到100起以上投诉的社交网络服务提供者有义务制作报告,报告内容至少包括用户递交投诉的机制、删除或屏蔽的判断标准、投诉数量、处理投诉人员的组织情况、最终被删除或屏蔽的信息数量、用户陈述情况、转递其他专门机构处理的情况、处理周期以及对投诉者和用户的告知情况等,平台每半年定期制作透明度报告。这些报告应以公众易于辨识、直接可及、永久提供使用的“使用者友善”方式即时公布于平台网页。通过平台信息公开告知用户哪些内容是不合适的,违反了哪些具体规则,内容是如何被检测到的,以及由谁检测到的(机器、审核员还是他人举报),进而让用户更好地理解内容审核系统,在知情、讨论和批判基础上共同优化平台的内容审核和申诉机制,实现网络信息内容的多元主体协同治理。
  结合我国互联网发展和治理实践看,网络平台信息内容审核和处置的权责边界则相对不甚明确。如何界定网络服务提供者的平台责任,处理好平台、用户和政府之间的关系已成为网络治理规则的重点和难点。“平台既是一个市场,又是一个企业”,这种独特的组织结构“至少在人类商业文明发展史上未曾出现过”(冯建华,2021)。平台的双重属性使其难以找到市场公共利益与企业私人利益的平衡方案,这是平台治理遭遇困境的根源(李良荣,辛艳艳,2021)。在其商业属性的促使下,平台天然具有逐利的投机倾向,平台自治极易导致权利义务的失衡以及事实上的不平等,其自治机制在约束用户的同时也加强了其自身治理赋权的正当性,工具理性超越了价值理性。这就要求政府对其加以克制,并非完全收权,而是实现“官民共治”,由政府参与到平台内部规则的制定中,避免平台因其“裁判员”和“运动员”的双重身份而导致自身权力异化。
  在平台治理的实践中,对于平台需要履行的责任及权力的边界缺少明确规定,或仅以原则性规定为模糊的参考,或分散在多项法律法规的描述中。而平台处于网络环境中,不仅自身面临瞬息多变的不确定因素,外部政策环境的变化对其权责结构也会形成影响,公法规制也需把握其变化,以动态发展的治理视角不断更新。在此背景下,应当改变由问题倒逼的政策设计模式,对平台治理的动态目标要求应成为主要的决策推动力来源。在追求共同化政策目标的同时,也应留出差异化的平台自治权力空间,尽可能避免出现自上而下“一刀切”式的单向规制模式(冯建华,2020)。
  对平台自治权的管控仅仅依靠单一的法律制度是不够的,平台治理在整个场景中应当是动态的规制而非静态的规定,平台治理需要走向基于规则而非基于原则的监管(Nooren P, Van Gorp N, Van Eijk N et al., 2018)。相较于硬法的稳定性和滞后性,软法灵活性大、制定相对容易,可以避免硬法制定、修订或谈判造成的高昂成本(居梦,2021:9)。充分发挥包括平台内部规则、行业自律规范在内的网络软法的治理效用,对网络和社会秩序具有重要的规范作用。我国网络内容治理的现有行业自律具有公私合作特征,多为“受国家规制的行业自律”。为了推进平台内容审核和处置的透明、可责和程序正当,政府应对行业自律进行有距离的间接规制,对行业自律过程的科学性、透明性发挥监督和保障作用,同时监测和防范行业自律的可能风险,促进行业组织和平台企业形成以社会公益和社会责任为核心的网络“善治”理念和价值规范。当然,面对网络内容生态环境的巨变,政府与行业的关系也需要不断衔接、协调与重构。在政府引导行业组织、平台企业积极加入治理网络的同时,如何持续发挥公私合作的高效协同模式,以及如何有效发动“政-企”二元力量之外的组织、专家、用户等参与共进治理,提高系统弹性,降低治理成本,还需要继续推进制度探索(年度网络内容治理研究课题组,2023)。
  
五、结语
  在数字时代,公众的言论和意见表达绕不过网络平台,如何约束平台善尽信息内容规制责任,防范其滥用信息内容审核权力侵害公民正当权利,已经成为各国政府的一项重要义务。在我国的网络综合治理体系建设中,网络平台在信息内容监管中的作用同样被突出强调。围绕网络平台的内容审查责任和把关标准等,还有一系列中国特色的网络治理问题有待在理论和实践层面进一步研究破解和明确理顺,如坚持党管互联网与依法管网、依法办网之间的关系,网络信息内容治理中的多元主体协同机制构建问题,网络内容监管的随机指令与法治要求之间的关系,网络平台内部规则的来源与网民权利限制的可救济性问题等。应当说,网络不仅是一个让人们休息、娱乐和放松的空间,还是公众获取信息、表达思想和释放情绪的窗口。网络平台无疑是连接个人言论、公共舆论、民主协商的重要桥梁,其对经济社会发展的重要性不言而喻。国家互联网信息办公室发布的《关于进一步压实网站平台信息内容主体责任的意见》,首次系统提出网站平台履行信息内容管理主体责任的工作要求,从完善平台社区规则、加强账号规范管理、健全内容审核机制、提升信息内容质量、规范信息内容传播、加强重点功能管理、坚持依法合规经营、严格未成年人网络保护、加强人员队伍建设等方面,对网站平台履行主体责任提出具体要求,这是制度层面界定平台信息内容管理义务的最新努力。在推动社会治理体系和治理能力现代化背景下,依循网络传播规律和法治原则,探索划定网络信息内容规制的平台权责边界,监督和约束平台私权力善尽义务与责任,对促进互联网由最大变量变成最大增量,推动网络空间良法善治和社会文明进步具有重要意义。■
  
注释:
①参见《互联网信息服务管理办法》第十五条,明确“互联网信息服务提供者不得制作、复制、发布、传播”的九种信息包括:(一)反对宪法所确定的基本原则的;(二)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一的;(三)损害国家荣誉和利益的;(四)煽动民族仇恨、民族歧视,破坏民族团结的;(五)破坏国家宗教政策,宣扬邪教和封建迷信的;(六)散布谣言,扰乱社会秩序,破坏社会稳定的;(七)散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的;(八)侮辱或者诽谤他人,侵害他人合法权益的;(九)含有法律、行政法规禁止的其他内容的。
②《网络安全法》颁布后,作为网络主管机关的国家网信办密集立法,先后颁布了《互联网信息服务算法推荐管理规定》、《网络信息内容生态治理规定》、《儿童个人信息网络保护规定》《区块链信息服务管理规定》、《互联网新闻信息服务管理规定》、《互联网用户公众账号信息服务管理规定》、《微博客信息服务管理规定》、《互联网群组信息服务管理规定》、《互联网跟帖评论服务管理规定》、《互联网论坛社区服务管理规定》、《互联网直播服务管理规定》、《移动互联网应用程序信息服务管理规定》、《互联网信息搜索服务管理规定》等部门规章和规范性文件,对要求各类平台处理的信息内容、处理义务和法律责任等做了细化规定。
③如《行政处罚法》第32条规定:当事人有权进行陈述和申辩。行政机关必须充分听取当事人的意见,对当事人提出的事实、理由和证据,应当进行复核;当事人提出的事实、理由或者证据成立的,行政机关应当采纳。行政机关不得因当事人申辩而加重处罚。
④平台通知只会告知该帖子包含“恶意或误导性内容”或内容“违反相关法律法规”这样的抽象规定,有时为了避免引起被删帖者的不满甚至不进行告知。
  
参考文献:
北京晨报(2017)。中央气象台发布台风黄色预警“涉黄”被删?检索于https://baijiahao.baidu.com/s?id=1581223658540918688&wfr=spider&for=pc。
方师师(2016)。算法机制背后的新闻价值观——围绕“Facebook偏见门”事件的研究。《新闻记者》,(9),39-50。
方兴东,陈帅(2019)。Facebook-剑桥事件对网络治理和新媒体规则的影响与启示。《社会科学辑刊》,(1),102-109。
冯建华(2020)。中国网络秩序观念的生成逻辑与意涵演变。《南京社会科学》,(11),108-115+164。
冯建华(2021)。刑法介入网络信息治理的背景、路径与边界。《新闻界》,(09),65-74。
冯建华(2022)。存异而治:网络服务提供者权责配置的进路与理路。《新闻与传播研究》,(04),56-72+127。
居梦(2021)。《网络空间国际软法研究》。武汉:武汉大学出版社。
孔祥稳(2020)。网络平台信息内容规制结构的公法反思。《环球法律评论》,(2),133-148。
李超(2021)。论平台经营者不合理限制交易的法律规制。《电子科技大学学报》(社科版),(10),104-112。
李良荣,辛艳艳(2021)。论互联网平台公司的双重属性。《新闻大学》,(10),1-15+117。
李延枫(2022)。网络平台内容治理的公法规制。《甘肃政法大学学报》,(2),50-63。
刘权(2022)。论互联网平台的主体责任。《华东政法大学学报》,(5),79-93。
罗英,谷雨(2021)。网络平台自治规则的治理逻辑。《学习与实践》,(8),35-44。
马长山(2018)。智能互联网时代的法律变革。《法学研究》,(4),20-38。
年度网络内容治理研究课题组,方师师,万旋傲,卢垚(2022)。要素治理与关系协调:2021年网络内容治理报告。《新闻记者》,(01),19-36+76。
年度网络内容治理研究课题组,方师师等(2023)。层层深入与链式共进:2022年中国网络内容 治理报告。《新闻记者》,(02),84-96。
帕梅拉·休梅克,韩纲(2020)。超级把关人:社交媒体时代的把关。《传播与社会学刊(香港)》,(54)。
彭桂兵,丁奕雯(2022)。智能传播中短视频平台版权争议及其治理路径——兼评“首例算法推荐案”。《新闻记者》,(09),86-96。
单勇(2022)。数字平台与犯罪治理转型。《社会学研究》,(4),45-68+227。
史安斌,王沛楠(2017)。传播权利的转移与互联网公共领域的“再封建化”——脸谱网进军新闻业的思考。《新闻记者》,(01),20-27。
姚志伟(2019)。技术性审查:网络服务提供者公法审查义务困境之破解。《法商研究》,(1),31-42。
尹建国(2015)。我国网络有害信息的范围判定。《政治与法律》,(1),102-113。
喻国明,李彪(2021)。互联网平台的特性、本质、价值与“越界”的社会治理。《全球传媒学刊》,(4),3-18。
张千帆(2014)。《宪法学导论——原理与应用》。北京:法律出版社。
赵鹏(2016)。私人审查的界限——论网络交易平台对用户内容的行政责任。《清华法学》,(6),115-132。
郑海平(2018)。网络诽谤案件中“通知-移除”规则的合宪性调控。《法学评论》,(2),102-115。
周光权(2018)。拒不履行信息网络安全管理义务罪的司法适用。《人民检察》,(9),16-22。
查云飞(2018)。德国对网络平台的行政法规制——迈向合规审查之路径。《德国研究》,(3),72-87+150。
左亦鲁(2015)。告别“街头发言者”——美国网络言论自由二十年。《中外法学》,(2),417-437。
AmmoriM. (2014). The“new”New York Times: Free Speech Lawyering in the Age of Google and Twitter. Harvard Law Review, 127(8) , 2259-2295.
Balking , J. M. (2020). How to Regulate (and Not Regulate) Social Media. 25 March. Retrieved from. https://knightcolumbia.org/content/how-to-regulate-and-not-regulate-social-media.
Bokat-Lindell, S. (2021). Deplatforming Trump Could Work. But at What Cost?New York Times2021-01-14.
Braithwaite, J.& Drahos, P. (2015). Global Business Regulation. London: Cambridge University Press.
Felix, T. W. (2013). Collateral Censorship and the Limits of Intermediary Immunity. Notre Dame Law Review , 87(1)293-350.
GanapiniM. B. et al(2020). Response by the montreal AI ethics institute to the Santa Clara principles on transparency and accountability in online content moderation. ArXiv abs/2007. 00700 : n. pag.
GehlR.& McKelvey, F. (2018). Bugging out: darknets as parasites of large-scale media objects. MediaCulture & Society41(2)219-235.
Gillespie, T. & AufderheideP.et. (2020). Expanding the Debate about Content Moderation: Scholarly Research. Agendas for the coming Policy Debates. Internet Policy Review, 9(4)1-29.
Griffin, R. (2018). Most Americans Think Facebook and Twitter Censor Their Political Views. Retrieved from Bloomberg. https://www. bloomberg.com/news/articles/2018-06-28/most-americans-think-%20social-media-giants-censor-their-views.
KellerD. (2015). Empirical Evidence of “Over-Removal” by Internet Companies under Intermediary Liability Laws. Retrieved from http://cyberlaw.stanford.edu/blog/2015/10/empirical-evidence-over-removal-internet-companies-under-intermediary-liability-laws.
Nooren PVan Gorp NVan Eijk Net al. (2018). Should we regulate digital platforms? anew framework for evaluating polic y options[J]. Policy & Internet, 10(3): 264-301.
Plantin, J-C. (2016). Infrastructure Studies Meet Platform Studies in the Age of Google and Facebook. New Media & Society20(1)1-18.
RobertG.Reuben, B.& Christian K. (2020). Algorithmic Content Moderation: Technical and Political Challenges in the Automation of Platform Governance. Big Data & Society7(1)1-15.
WestS. W. (2018). Censored, SuspendedShadowbanned: User Interpretations of Content Moderation on Social Media PlatformsNew media & society11(1): 1-18.
  
张文祥系浙大宁波理工学院、浙江大学网络空间安全学院双聘教授,博士生导师;杨林系山东大学新闻传播学院博士生;陈力双系山东大学文化传播学院硕士生。本文为国家社科基金项目“我国互联网信息的多元主体协同治理体系研究”(编号:18BXW121)的研究成果。
  
  
  
  
主管单位: 上海报业集团
主办单位: 上海报业集团      上海社会科学院新闻研究所