趋深向实与“国家在场”:2023年中国网络内容治理报告
年度网络内容治理研究课题组
[本文提要]本报告对2023年中国网络内容治理的三个主要领域中七个相关主题进行了梳理和研究,涉及生成式人工智能对既有信息秩序的挑战与因应,以平台为中心的网络暴力、自媒体账号治理,以及新技术环境下的个人信息保护与数据治理。在过去一年中,中国的网络内容治理呈现出趋深向实、敏捷审慎、“软法”柔治和“国家在场”的基本特征。未来网络内容治理的规范化、包容性、边界安全感以及权责对称性等问题依然构成严峻挑战。
[关键词]网络内容 人工智能 平台治理 数据治理 个人信息保护
这是本课题组第三次推出中国网络内容年度治理报告。
在《2021年网络内容治理报告》中,我们引入了“涉及代码层或技术层意义上的网络内容”来拓展本报告所研究的对象的形式与范畴。在《2022年中国网络内容治理报告》中,一条包含数据要素、网络内容、平台监管、经济秩序、意识形态在内的“治理链条”得以串联起来,进一步深化了网络内容治理在国家治理体系中的价值与作用。
以上主要定位和研究发现支撑了《2023年中国网络内容治理报告》从三个主要领域分析本年度网络内容治理的特征、现象与趋势:第一,生成式人工智能对网络信息秩序的挑战与因应;第二,以平台为中心的网络暴力、自媒体账号治理;第三,新技术背景下个人信息保护与数据治理。需要说明的是,这三个部分之间并非完全独立,在很多问题上是交叉融合的。例如生成式人工智能参与的内容生成问题,在数据来源、模型训练、版权保护、错误生成、提示工程、AI素养等多个环节均会涉及数据、平台、技术三者与之间的关系。
一、生成式人工智能挑战既有信息生态秩序
作为人工智能深度影响人类生活的应用案例,2022年底“破圈”并火爆全球的ChatGPT是有史以来该类别中增长最快的一款消费级应用。经合组织(OECD,2019)对人工智能系统的定义是:“人工智能系统是一个基于机器的系统,能够通过为一组特定的目标产生输出(预测、建议或决定)来影响环境。它使用机器或基于人的数据和输入来进行:(1)感知真实或虚拟环境;(2)通过自动化方式(例如,机器学习)的分析,将这些感知抽象成模型;(3)使用模型来推理可能的结果。人工智能系统可以按照不同程度的自主性进行运作。”
虽然目前生成式人工智能(GenAI)尚不是通用人工智能(AGI),但已迅速与现有工种结合、渗透多个行业和产业,从底层产生了结构性影响。美国白宫、英国教育部未来技能部门(Unit for Future Skills)等先后发布了关于“人工智能职业暴露度”的调查报告,表明现在10%~30%的工作都将受到人工智能的深度影响,尤其是金融、法律、教育、文案、设计等行业和领域,未来有三分之一的职业或将被自动化技术取代。虽然基于人工智能技术还会催生出新的职业和行业,但短时间内这种冲击对脑力劳动者尤其是受过更高等级教育的人群是“巨大且长期”(White House,2022)、“深刻而广泛”(UK Department of Education2023)的。
2023年8月,国家网信办等七部委联合发布的《生成式人工智能服务管理暂行办法》施行。此文件与2022年3月施行的《互联网信息服务算法推荐管理规定》、2023年1月施行的《互联网信息服务深度合成管理规定》,三者从算法、应用、综合的角度对智能技术构成了“治理三角”。7月底,苹果商店在中国区下架了大量AI类应用软件,8月还出现了AI类App“下架潮”。相关分析认为,这正是由于监管部门一直在加强对深度合成技术和生成式人工智能服务的监管,“被下架的生成式AI应用没有履行算法备案程序”(财经E法,2023年8月4日)。
(一)AIGC或将带来新一轮虚假信息传播浪潮
智能技术对数字内容的生产、传播、效果、创新等方面的影响一直是近年的热议话题,而采用AI技术做新闻也受到追捧(de-Lima-Santos & Ceron2021)。虽然目前很多产品和作品声称其使用了人工智能技术,但究竟使用到何种程度才可以被称为是智能媒体?有研究对2017—2022年5年间全球106个AI做新闻的案例进行分析发现,传统媒体和通讯社对AI技术的采纳更为积极,排名前五的应用分别是自动化新闻写作、新闻报道、增强报道、视频图像处理、个性化推荐。全球范围内采用AI做新闻的时空分布严重不均,美欧地区优势明显(方师师,贾梓晗,2023)。
ChatGPT的出现带来了生成式人工智能内容生产的全新想象。虽然国内外已有媒体将这一应用纳入到内容生产流程中,但理念和实践均非常谨慎。在宏观层面上,生成式人工智能对传媒生态的挑战包括重大意识形态风险、威胁清朗网络信息环境、造成知识产权保护难题以及产生严重数据安全等(韦路,徐靓颀,2023)。在应用场景中,其自信满满地胡编乱造——即出现人工智能“幻觉”(hallucination)的现象备受关注。如ChatGPT3.5中存在事实错误、逻辑错误、推理错误、编程错误、文本输出、过度拟合、综合问题7大类错误内容生成(方师师,唐巧盈,2023),而且由于ChatGPT是基于用户与之交互的提示工程(prompt)进行问答生成,用户在人机交互中的角色扮演和提问素养均对其内容生成造成影响。
根据NewsGuard的研究报告,自2023年5月以来,全球范围内由人工智能生成的虚假信息呈爆发式增长,生成虚假文章的网站数量从49个增至600多个,涉及15种语言,内容涵盖政治、社会等多个领域。报告认为,由AI生成的虚假信息的兴起,对于社会信息的准确传播构成严重威胁,是下一个大型的“错误信息超级传播者”,其传播速度和扩散规模堪称一种新的信息战(NewsGuard, 2023)。例如一个叫做“地球村空间”(GlobalVillageSpace.com)的网站,被NewsGuard确定为众多“不可靠的人工智能生成新闻网站”之一,这些网站主要使用人工智能重写其他来源的新闻,几乎没有人工编辑监督审查,一篇名为“以色列总理的精神科医生自杀”的虚假新闻被该网站炮制传播,甚至出现在伊朗国家级电视节目上(Verma, 2023)。
国内人工智能生产虚假信息的问题也屡有报道。2月16日,杭州某小区业主群内有业主开玩笑直播了用ChatGPT写新闻稿的过程。该文章后来被群内其他业主截图转发,导致“3月1日起杭州市政府将取消机动车尾号限行政策”的错误信息被大量传播(新华网,2023年2月17日)。11月,上虞AI技术合成虚假视频案宣判,涉案团伙为博取社会关注,利用AI技术合成并发布了虚假的“上虞工业园区火灾”视频,引发大量点击。经警方查获,法院判决涉案人的行为构成编造、故意传播虚假信息罪,处以刑罚(澎湃新闻,2023年11月21日)。
相比之前社交网络、算法推荐等智能应用主要在传播阶段发力,AIGC将介入智能传播的流程节点提前至生产端。虽然其本身不会带来大规模的网络传播,甚至在一定程度上是针对个体提示工程进行的“定制化精准人机传播”,但由于其具备快速海量信息生产的潜力,如果同搜索引擎、社交机器人等技术进行组合叠加,则会带来超大规模的信息漫灌。甘肃省2023年5月破获的利用“易撰”网页版和 ChatGPT人工智能软件编造虚假信息的案件也表明,其炮制出的假信息通过相关软件上传至其购买的大量百家号,造成了大量传播(赛博研究院,2023年5月9日)。
生成式人工智能给内容治理提出严峻挑战。治理AI生成的虚假信息需要多方参与的解决方案。政府、科技公司、媒体、教育机构以及公众都在其中扮演重要角色。有研究基于欧盟的AI法案提出,治理AIGC的结构性条件是工业可观测性、公众可检查性和技术可修改性(Ferrari, van Dijck & van den Bosch2023)。而这三方面又可以分为技术治理与社会治理两大谱系,其中技术治理主要通过新闻机构和社交媒体平台开发更高效的工具和方法,来识别和过滤AI生成的虚假内容;社会治理则需要通过社会多元共治,提高用户AI素养。2023年11月由国家工业信息安全发展研究中心牵头发布的《内容安全检测人工智能系统鲁棒性测评规范》,①对人工智能生成的四大内容类型(包括图像、视频、文本、音频)进行分级测评,确保人工智能系统在不同环境下的稳定性和可靠性。该规范体现出在AIGC内容安全治理方面,涉及多领域、多主体的交叉融合治理。同时,生成式人工智能也提示社会相应的应对机制亟需更新。例如,加强公众对于媒体素养和信息识别能力的培养,目前被证明是应对虚假信息传播最有效的途径。
(二)AIGC的数据来源合法性与版权保护争议
根据《生成式人工智能服务管理暂行办法》第四条和第七条规定,用于训练人工智能模型的数据和基础数据要有合法来源,不得侵害他人依法享有的知识产权。全国信息安全标准化技术委员会发布了《生成式人工智能服务安全基本要求(征求意见稿)》,就如何避免侵犯知识产权制定了详细的指导方针。例如,“提供者不应使用有侵权问题的语料进行训练:训练语料包含文学、艺术、科学作品的,应重点识别训练语料以及生成内容中的著作权侵权问题;对训练语料中的商业语料以及使用者输入信息,应重点识别侵犯商业秘密的问题;训练语料中涉及商标以及专利的,应重点识别是否符合商标权、专利权有关法律法规的规定”。
在世界范围内,关于利用生成式人工智能进行创作的版权问题也是争议热点。该问题主要存在两大方面的争议:第一是用于训练AI模型的数据来源和使用是否合法,争议主要存在于训练AI模型的平台方与作品被用于AI训练的版权方。生成式人工智能模型的形成和完善,依赖大量的数据训练,而用于训练的数据往往包含受版权法保护的内容,AIGC获取与利用这些版权作品进行的模型训练是否符合版权法?2023年终,纽约时报在曼哈顿联邦地区法院起诉OpenAI和微软侵犯版权,因其未经授权使用了“时报”的数百万篇文章来训练AI技术,而成为第一家起诉AI公司的美国大型媒体机构,该案或对生成式AI技术的法律框架产生影响,也可能对新闻行业产生重大影响(腾讯新闻,2023年12月28日)。在国内,如小红书也被质疑通过用户协议轻易获取用户上传和发布的作品来“偷偷”训练自己的AI绘画应用模型Trik(搜狐网,2023年8月11日)。
第二是AI模型生成的内容是否享有版权,使用AI模型的内容生产方之间权益如何分配。AIGC的版权归属现阶段尚未明确,各国的理论和实践至少存在五种可能性:(1)分配给AI(非人类),(2)分配给AI开发者,(3)分配给AI使用者,(4)AI开发者和使用者共享,(5)不授予版权而采用其他方式保护。其中,AIGC作品中的人类创造性贡献成为影响判定的关键因素。美国版权局(USCO)2023年3月发布《版权登记指南:包含人工智能生成材料的作品》认为,版权只能保护人类创造力的产物——宪法和版权法中使用的“作者”一词不包括非人类。USCO认为通过Midjourney、Stability AI、ChatGPT等模型和平台自动生成的作品,如果在整个创作过程中完全由机器人自动完成,则不受版权法保护。我国在法律层面尚无成文规定,但已有案例。2023年11月国内首例“AI文生图”侵权案一审宣判,北京互联网法院认为原告李某通过提示词方式使用AI软件Stable Diffusion 进行的图片生产属于智力劳动,生成的图片具备独创性,应当被视为作品,受著作权法保护。该判决虽已生效,但引发学界强烈争议(解放日报,2024年1月17日)。
学界认为,对于AIGC来说,认定其生成的内容是否存在侵权问题,不仅涉及人工智能模型是否合理地使用了训练数据(输入端),还涉及中间使用者与软件模型的交互行为(交互端),以及最终输出结果与训练语料之间的比对判断(输出端),因此需要根据具体场景、行为以及结果仔细辨别。比如ChatGPT可以通过概率模型更换同义词,以此“规避”著作权法对作品的保护,而如果生成内容与语料文本构成了实质性的相似,那么则可能侵犯复制权以及进一步挑战著作权法律制度中的合理使用等既有规范体系(朱鸿军,李辛扬,2023)。纽约时报诉OpenAI案发生后,有计算机专家尝试复现了纽约时报给出的侵权生成文本,认为得到这样的结果意味着用户进行了检索增强生成(RAG),即用户通过设计提示词故意让模型出现漏洞,如果是这样,就不应属于模型本身训练数据来源侵权的情况(机器之心,2024年1月9日)。目前对于这些问题尚未形成定论。有研究报告给出了四种控制大语言模型输出的方法,分别是:(1)编辑预训练数据,(2)监督式微调,(3)结合人类反馈的强化学习(RLHF)和宪法AI,②以及(4)提示与输出控制。但这依然不是完美的解决方案,未来对于生成式人工智能所涉及的数据是否属于合理使用以及生成内容是否属于侵权问题将陷入持久争议。
二、以平台为中心的网络内容多元共治
随着网络社会逐渐进入“平台社会”,平台成为具备政治沟通、产业经营、公共传播、技术设施等多重功能的复杂系统,因此需要关注平台与其所处国家、市场、社会、技术共同构筑的宏观环境间的耦合关系(殷琦,国秋华,2023)。面对日益多元化、复杂化的网络内容监管问题与风险,平台凭借技术优势、用户规模及强大的连接能力,同样成为互联网内容治理的枢纽(张志安,聂鑫,2022),连接治理多方主体,事关治理各维度。政府由对信息内容直接规制转向依靠平台的力量,通过立法、行政等手段,明确平台作为网络信息服务提供者的信息内容管理义务和责任,以平台为中介对数字社会进行治理(张文祥杨林,陈力双,2023)。社会公众则借助平台提供的技术功能支持,参与违规信息屏蔽、举报等,与平台算法协商交互,提高内容审核准确性。政府、行业、公众等主体作为平台参与方、利益相关者,与平台一起,在平台构建的空间场景下,共同参与网络内容治理。网络内容治理正形成以平台为中心,多元主体共同参与的全链条治理格局。
(一)构建针对网络暴力的综合治理体系
网络暴力已非新鲜话题,但随着社交媒体平台的崛起与壮大、多模态的内容生产与分发、多社会阶层用户长期大量参与卷入等现实情况(方师师,2023),呈现出新特点。首先,网暴情境复杂化。施暴者不再只是借网络的开放性的、虚拟性和匿名性等便利条件来释放不满情绪,不少施暴者以正义为名,企图进行自我行为的“正当化”运作。如2023年5月,浙江东阳某景区婆孙二人疑似插队的视频被传至社交平台后,两人信息及隐私被人肉搜索,形象被恶搞成表情包,甚至有商家借此牟利。尽管起因是对“插队”行为的批评,但却朝着失控的网暴方向发展。也有网暴者是刻意为之,借此收割流量,进而牟利,甚至形成了成熟的操作团队和“网暴产业链”。对一些网民来说,参与或围观网暴已被内化为其网络日常活动的一部分,成为无意识行为(社会科学报,2023年5月25日)。第二,网络戾气愈发严重,当下网暴者更有可能仅因立场或喜好不同而发起霸凌(刘紫川,桂勇,黄荣贵,2023),网络连接与网络社群的力量可以使持相同立场者迅速聚集,对相异者进行讨伐。如因高考冲刺百日誓师大会上澎湃发言而遭到网络攻击的高三学生代表、遭受丧子之痛后却因穿着打扮等被恶意揣测的母亲杨女士等事件,都可见网络戾气之重。第三,网暴带来的伤害日益深重。尽管网暴事件可能存在由发酵到消退的周期,但网暴对受害人的影响却有厚尾、拖尾效应。如2022年因一头粉发遭到网暴的郑灵华,在与网暴、抑郁抗争半年多后,最终选择结束生命。网络暴力扰乱着整个网络内容生态环境,人人都有可能成为受害者,包括有意无意的施暴者。
网络暴力的日益复杂化使得网暴治理面临更多挑战。由于施暴者往往自认合理,且网暴行动会得到局部社会行动者共享价值观念的支持,使其发生和发展具有“亚道德”基础(刘紫川,桂勇,黄荣贵,2023),施暴者难以从自我认知角度辨别自身行为的暴力特性,为网络暴力界定增加了难度。2023年9月,最高人民法院、最高人民检察院、公安部联合出台《关于依法惩治网络暴力违法犯罪的指导意见》,将网络暴力定义为“在信息网络上针对个人肆意发布谩骂侮辱、造谣诽谤、侵犯隐私等信息的网络暴力行为”,从行为主义立场切入将网暴刑事治理对象理解为网暴现象引发行为(付玉明,刘昕帅,2023)。2023年7月,国家网信办发布的《网络暴力信息治理规定(征求意见稿)》同样从行为体现角度将网络暴力作出类似的定义。
因技术、资源等优势,平台在网络信息内容规制中发挥着“超级把关人”功能。自2022年11月中央网信办印发《关于切实加强网络暴力治理的通知》后,2023年3月,抖音、微博、快手、腾讯、小红书等重点平台陆续发布防网暴指南手册,从风险提示、一键防护、私信保护、举报投诉等多个维度,帮助网民快速有效防范网暴侵害(中国网信网,2023年3月6日)。新浪微博、抖音等平台考虑到网络暴力对当事人的伤害,还推出事后关怀的补助救济,如抖音推出“心情暖宝宝”助手,与负面情绪用户进行对话,视情形严重程度引导用户进行线下就诊。
尽管目前各平台均已布局防网暴措施,但在实际的常态化管理中,平台因难以与监管部门、用户间实现有效协同,而陷入困境。为此需推动网络暴力治理主体间的多元互动,厘清主体责任边界,防止平台在内容审查中出现正当性不足或权力扩大化等问题。从当下实践来看,首先是加强监管部门“运动式治理”与平台常态化监管间的配合。2023年11月,中央网信办启动为期1个月的“清朗·网络戾气整治”专项行动,围绕社交、短视频、直播等重点平台类型,坚决打击“网络厕所”、“开盒挂人”行为借社会热点事件恶意诋毁、造谣攻击、污名化特定群体煽动地域对立等七大问题,对网络空间面临的突出网暴问题进行了集中治理。其次,对网暴的处理要完善民事维权、行政执法与刑事司法的衔接、刑事自诉与公诉程序的衔接,对网络暴力行为的处罚和对平台履行信息网络安全管理义务的监督并重。“指导意见”明确界定可以适用网暴行为的各项罪名,在程序上扩大了网络侮辱、诽谤行为的公诉条件,并为自诉转公诉提供了明确的法律依据,对符合公诉条件的案件优先考虑公诉,加强了警方权力。其三,发动网民积极与多方治理主体互动。中央网信办2023年9月下发《关于进一步加强网络侵权信息举报工作的指导意见》,其中包括了网民对网暴的及时举报。
(二)健全“自媒体”账号全流程管理
2023年3月,网信办开展了为期两个月的“清朗·从严整治‘自媒体’乱象”专项行动。针对“自媒体”造谣传谣、假冒仿冒、违规营利等突出问题进行打击,包括取缔假冒仿冒官方机构、新闻媒体和特定人员的“自媒体”;整治蹭炒热点吸粉引流、造热点博流量、利用弱势群体进行流量变现等违规营利行为。
“自媒体”发端于“We Media”,在本土化过程中,逐渐与新闻及其内在公共性脱钩,并与市场和商业主义勾连,转向“创业者用新技术创业”、以“商业主义”为主导的概念取向(於红梅,2017)。超大规模网民数量蕴含着巨大商机,同时伴随着数字经济的快速发展,自媒体作为一种全新的媒体形态已成为创新创业的重要载体。对自媒体而言,浏览、点赞、转发等流量指标关乎生存,也是内容价值的体现。但假冒仿冒、蹭热点引流等乱象频发,不断提醒我们在算法机制调配下,以追求流量最大化为目标的自媒体行为,稍有不慎就可能挑战道德伦理底线,甚至违反法律规范。
3月30日,一名拥有554万粉丝的大V博主@金洋Jyan在微博上发了一段7分52秒的小视频,配上文案称,自己才25岁,就被确诊肝癌,至视频末尾却声明“内容纯属虚构”,引发网友不满(北京日报,2023年3月31日)。次日晚,北京市网信办即发布通告称,已就“自媒体”账号@金洋Jyan编造“肝癌晚期”虚假事实、以“卖惨”方式博取流量的违规行为,约谈了相关平台(北京日报,2023年4月1日)。此类借苦难博取关注、消费同情的行为并非个例,甚至已演化为由专业团队操纵的成熟变现链条。公司先通过设计剧本、摆拍等方式“卖惨”引流,孵化网红;再借助网络水军对相关账号进行涨粉、推流;最后实现带货牟利的目的(人民日报,2023年11月6日)。12月28日,四川省凉山州昭觉县人民法院对四川首例“系列网红直播带货案”宣判,以“凉山曲布”、“赵灵儿”为代表的网红团队打着“助农”旗号,编造虚假剧本摆拍视频,直播售卖假冒农特产,犯虚假广告罪获有期徒刑。此外也有一些自媒体通过仿冒国家机构、专业媒体等方式,蹭官方热度,传递误导信息。专项行动阶段性成果显示,重点平台累计处置假冒仿冒账号82.77万余个,包括假冒党政机关、军队、事业单位、新闻媒体的账号,擅自使用县级以上行政区划地理名称误导公众的账号及无专业资质账号等多种类型。
2023年7月,中央网信办发布《关于加强“自媒体”管理的通知》,督促网站平台健全账号注册、运营和关闭全流程全链条管理制度。从账号认证、账号内容运营及获利规范等角度提出13项工作要求,为“自媒体” 划出底线、立下规矩。为避免账号信息假冒,“管理通知”要求平台强化注册、拟变更账号信息、动态核验环节账号信息审核,并对从事金融、教育、医疗卫生、司法等领域信息内容生产的“自媒体”,强化资质认证展示。对账号内容的监管要求包括规范信息来源标注、加注虚构内容或争议信息标签以及完善谣言标签等具体措施,并强调要规范账号运营、加强信息真实性管理。
10月31日,微信、微博、快手、抖音、知乎、小红书、哔哩哔哩等多家平台公布“部分自媒体账号前台实名”的公告,与上述“管理通知”中要求加强对从事特定领域信息生产的自媒体的资质认证展示对应,大部分平台将需要前台实名的自媒体限制在“时政、社会、金融、教育、医疗卫生、司法军事”等领域,并指出普通用户及发布日常生活分享为主的账号不受影响。从操作要求来看,各平台公告均要求“粉丝”量在50万以上的“自媒体”账号对外展示实名信息。除抖音、知乎未提及外,其他平台均提到近期将首先引导100万“粉丝”以上的自媒体先行完成对外展示,分批次、分阶段完成前台实名工作。不配合完成前台实名的“自媒体”账号流量、收益将受影响。
我国“网络实名制”经历了较长的发展阶段。2012年12月,全国人大常委会《关于加强网络信息保护的决定》首次以立法形式明确网络实名制。其后,《网络安全法》和网信办据上位法发布的《互联网用户账号名称管理规定》等多个文件,都规定了网络用户“自媒体”实行“后台实名、前台自愿”的原则并在具体要求方面有所发展。2022年4月,各平台陆续上线“IP属地”功能,“地域”概念以一种新形式走入公众视野。此次平台集体启动将部分“自媒体”实名由幕后推向台前,网络监管精细度再次提升。
但这个举措多少引发了网络社会群体对言论表达的心态变化。在一些社交媒体平台上,一些用户开始以一种“集体匿名”的方式,将头像、昵称换回默认状态下的“粉色小恐龙momo”状态,试图通过二次匿名的方式,降低个人信息辨识度进行自我隐藏。这体现出在政策规范与媒介技术的双重作用下,用户意识到自己处于全景监视中,言论表达的安全感降低。实际上本次实名要求只针对在特定信息传播领域粉丝量多、流量大的自媒体账号,目的是督促自媒体提高合法合规发言的自觉性和主动性,通过实名展示也能赋予社会更多监督权,汇聚治理合力。但这也表明,在政策调整过程中,有必要及时做好解释回应工作,阐明规范的意图,以促进社会各方形成共识,切实理解。
三、新技术环境下个人信息保护与数据治理难题
(一)整治“人肉开盒”:打击“人肉搜索”升级行为
个人信息泄露一直是网络风险的重灾区,近期又遭遇了“人肉开盒”、“开盒挂人”等新型威胁。“人肉开盒”又称“开盒挂人”,是指利用非法手段公开曝光他人隐私数据与信息的行为。2023年8月,视频平台哔哩哔哩多位视频创作者向平台举报,有人在境外平台有组织地煽动用户对站内视频创作者进行“人肉开盒”。该群体不仅在线上公开UP主个人信息,还对其进行一系列电话私信骚扰、网暴攻击、恶意举报等行为。后经公安机关查明,该案件牵涉18个省市,共计40多人,主要活动人员为两名未成年人。其中一人因违法事实情节严重被处以10日行政拘留,违法行为永久记录其个人档案;另一人根据相关规定对其进行了严厉批评教育(央广网,2023年11月23日)。
近年来人肉搜索从“场所主导”转变为“用户主导”(陈秋心,年欣,2022),作为人肉搜索的一种新形式,“人肉开盒”具有四点特征:第一,“人肉开盒”不仅限于“搜索”,更是精准实施网暴的工具。相较于传统的人肉搜索是为了追查事件真相或人物身份并给予曝光(付琳,2017),“开盒”行动往往没有寻求特定真相的目的,而是将姓名、住址、电话、照片、身份证号码等个人信息公开后,通过电话骚扰、恐吓、谩骂、侮辱、敲诈等方式实施网暴;第二,“开盒”行为向群体化和低龄化发展。“开盒”行为往往通过群组方式进行,未成年人易被圈群组织或煽动,成为“人肉开盒”行动的活跃者;第三,“开盒”对象具有无差别性,不仅涉及明星网红,还包括同学、老师以及不相识的普通网友等,任何人都可能成为受害者;第四,“人肉开盒”成为网络黑灰产业的重要一环,呈现平台化、成本低、难追踪等特点。“人肉开盒”往往通过黑客工具、网络爬虫、网络攻击、内部泄露等手段获得各类数据后,再将这些个人转向境外平台、暗网等渠道,低成本地进行非法倒卖。由于“人肉开盒”形成的网络黑灰产业链条长,且可能涉及境外平台参与,甚至使用虚拟货币交易,隐蔽性强、难以追责。
对此,2023年9月两高一部“指导意见”规定对于组织“人肉搜索”、违法收集并向不特定多数人发布公民个人信息,情节严重、符合刑法第253条之一规定的,以侵犯公民个人信息罪定罪处罚。同月,国务院颁布《未成年人网络保护条例》,强调围绕网络道德意识形成、网络法治观念培养、网络使用能力建设、人身财产安全保护等,培育未成年人网络安全意识、文明素养、行为习惯和防护技能。这对学校、家庭、互联网平台等多元主体引导未成年人提升网络素养、抵制“人肉开盒”等非法行为提出了要求。11月,中央网信办启动专项行动,重点打击社交、短视频、直播等重点平台中的“开盒挂人”行为,推进平台主体责任落实,以提高惩治效果。从长远看,打击“人肉开盒”还需要加强前置治理、常态监管、多方协同。除相关部门依法加强执法,平台需加强技术研发,积极溯源、阻断个人信息非法传播链,如推广“一键防骚扰”等隐私保护和免打扰功能,畅通一键举报渠道,加强网络社区自治(何慧敏,2023)。此外,面对数字化转型浪潮和全面数据化趋势,全社会的个人信息保护意识也有待提升。
(二)个人数据用于训练AI:防范隐私政策中存在的潜在风险
2023年11月16日,从事办公软件开发的“金山办公”公司宣布旗下人工智能办公应用“WPS AI”对外上线测试。但有网友发现,其《WPS隐私政策》中提到,“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用”,这引发了广泛关注。11月18日,金山办公更新《WPS隐私政策》,发布声明称,WPS所有用户文档不会被用于任何人工智能训练目的,也不会在未经用户同意的情况下用于任何场景。无独有偶,2023年7月,被誉为国内第一款AIGC爆品的“妙鸭相机”因在隐私政策中存在用户数据可用于包括AI训练数据在内的多项“霸王条款”,而受到广泛争议。随后,“妙鸭相机”修改了隐私政策,并发布道歉声明承诺“用户上传的照片只会用于数字分身制作,不会提取也不会用于识别和其他用途,且分身制作完成后自动删除”。
隐私政策是指网络服务提供者就其如何处理个人信息所作出的书面声明、陈述、允诺或者保证(程啸,2022)。我国多件法律、法规对个人信息处理规则提出了明确要求。作为App平台收集、使用用户信息的第一道关口,隐私政策不仅是收集、使用个人信息服务的“说明书”,更应成为保障用户利益的“安全阀”(光明日报与武汉大学联合调研组,2021年8月19日)。但当前平台隐私政策具有诱导用户授权风险,存在用户“隐私换服务”、平台巧妙设置避险条款却被第三方使用个人信息的潜在危害(刘裕,周毅,农顔清,2022)。特别是随着生成式人工智能快速推进,由于AIGC应用中数据处理方式的复杂性和不确定性,各方难以确定个人信息的处理期限,有可能相关方仅“同意”一次的处理却被无限期使用,消解了信息收集的最小必要性原则(罗斌,唐恋,袁璐丝,2023)。
虽然金山办公、妙鸭等企业在原先的隐私政策中已告知了用户数据将被用于人工智能训练,但即使用户同意也存在风险。上述应用所收集的信息可能包含生物识别、医疗健康、金融账户等敏感个人信息。《个人信息保护法》要求,个人信息处理者只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,方可处理敏感个人信息,且处理敏感个人信息应当取得个人的单独同意。上述企业通过一揽子的同意授权来获取用户敏感个人信息,不仅没有充分的必要性,而且也未得到用户的单独同意。此外,《生成式人工智能服务管理暂行办法》也明确规定,生成式人工智能服务提供者不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录。还需注意的是,用户在应对平台政策和规则的实践上,往往处于弱势一方。在实际调研中,我国互联网用户对于平台设置的隐私政策条款普遍呈消极态度,认为其流于形式,对于自身数据保护难以起到实际作用(宣长春,王小莉,李自得,侯雨飞,2023)。因此,应积极构建一套由政府监管部门、行业协会和用户个人等主体构成的隐私政策第三方审核机制,充分发挥不同社会主体在审核、监督和评价隐私政策合规性方面的作用。
(三)首例短视频平台数据集合不正当竞争纠纷案
2023年3月,北京知识产权法院审结北京创锐文化传媒有限公司上诉北京微播视界科技有限公司不正当竞争纠纷一案,判决驳回上诉,维持原判:创锐公司刊登声明、消除影响,赔偿微播公司经济损失500万元。该案件的主要争议点在于微播公司对于包含涉案短视频、用户信息、用户评论在内的数据集合是否享有合法权益、属于什么法益。该案入选最高人民法院2023年反垄断和反不正当竞争典型案例。
本案作为首例短视频平台数据集合引发的纠纷案,从反不正当竞争视角对平台数据进行保护,并与著作权法保护的法益范畴加以区分。法院指出,微播公司作为抖音App的开发者和运营者,抖音短视频整体以及用户信息、用户评论的集合,具有数据集合的属性,对于微播公司具有独立的商业价值,应受法律保护;创锐公司采取不正当手段抓取搬运抖音App中的数据集合的实质性内容,攫取了微播公司的竞争资源,削弱了微播公司的竞争优势,应承担侵权责任。但涉案数据集合在内容的选择和编排上不具有独创性,不构成著作权法保护的汇编作品,而构成不正当竞争行为(北京知识产权法院,2023年3月21日)。该案对平台数据权责认定,体现了在平台经济视域下如何妥善处理数据相关方利益的问题。对平台数据进行场景化的保护,无论是个人数据还是企业数据,都应当通过自下而上的个案化判断来制定规则,且需要考虑平台性质、数据性质、数据爬虫性质,努力实现数据隐私保护、企业数据权益保护与数据共享的平衡(丁晓东,2019)。不过,反不正当竞争法规则只能解决具有竞争关系的经营者之间的数据纠纷,未来可以考虑在区分数据来源者和数据处理者权利的基础上,构建数据确权的双重权益结构,尊重和保护数据来源者的在先权益,确认和保护数据处理者的财产权益(王利明,2023)。
四、结论与讨论
通过对2023年我国网络内容治理的三个主要领域的分析,本报告认为,为应对新兴技术的强烈冲击和信息格局的快速变化,我国的网络内容治理面临需要保障治理效能快速落地的任务,并且其机制要求深入社会的“毛细血管”。这也是本次年度报告试图引出的一个整体的趋势走向:未来对于网络内容的治理,将吸纳进全产业链和社会整体治理。在一定程度上,网络内容治理不再只是如何整合社会的问题,其本身就是社会。具体而言,2023年我国网络内容治理呈现以下基本特征:
(一)趋深向实
2023年有关主管部门依据《网络安全法》、《数据安全法》、《个人信息保护法》等法律,在不同领域相继出台一批支撑性、互补性、可操作性的文件规定,治理政策与行动实践呈现出不断纵深、细化、落实的态势。这种深入不仅体现在对可见的内容层的治理上,更是渗透进入模型层、数据层。继2022年施行的《互联网信息服务算法推荐管理规定》被认为是将内容治理深入技术逻辑层面(魏永征,周丽娜,2022)后,2023年1月施行的《互联网信息服务深度合成管理规定》、6月发布的《近距离自组网信息服务管理规定(征求意见稿)》、7月发布的《生成式人工智能服务管理暂行办法》和《人脸识别技术应用安全管理规定(征求意见稿)》等,也都分别在规管对象(从服务提供者延伸到技术支持者)、规管程序(贯穿数据处理、优化训练过程等)、备案制度(适用具有舆论属性或者社会动员能力的服务者)等诸方面体现了这种深入趋势。根据国家网信办公告,我国境内目前累计已有280款深度合成服务算法完成备案,其中很多是大模型算法(中国网信网,2024年1月5日)。一批“清单式”治理文件的出台,体现出基于数据层的精细化治理。例如2023年10月,全国信息安全标准化技术委员会发布了《生成式人工智能服务安全基本要求》征求意见稿,用以支撑《生成式人工智能服务管理暂行办法》的执行。在文件的附录A中,例举了基于类别划分的包括语料及生成内容的5类31种主要安全风险。
(二)敏捷审慎
上述7月由国家网信办等七部委联合发布的部门规章《生成式人工智能服务管理暂行办法》被认为是全球范围内针对生成式人工智能的首个专门规制,该部门规章从征求意见稿到正式通过出台仅历时3个月,体现出相关部门对新兴先进技术敏捷治理的思路。同时也有观点认为,对生成式人工智能实行“暂行办法”也体现出一种包容审慎的考虑。相比4月发布的“征求意见稿”,7月正式发布的“暂行办法”“在多处放宽了监管要求,并增加了鼓励人工智能技术发展的措施”(许可,2023)。目前生成式人工智能技术仍处于发展初期狂飙猛进阶段,ChatGPT推出仅一年时间里已进行了至少3次跃迁式迭代,国内目前已有超过200种中文大语言模型,多模态内容的生产效率和生成效果还将继续升级,所以“暂行办法”的推出,以鼓励创新发展为基调,以个人合法权益、公共利益、国家安全为底线,在原则理念和规制范围上统筹发展与安全,也便于后续根据技术演进情况及时予以调整。
(三)“软法”柔治
对生成式人工智能的治理凸显了技术伦理作为“柔性治理”的重要性。2023年全球各国、组织和机构都在探索如何在人工智能的“发展”与“安全”之间取得一个合适的平衡。9月,科技部、教育部、工信部等10部门印发了《科技伦理审查办法(试行)》,要求涉及以人为研究参与者的科技活动,以及利用人类生物样本、个人信息数据等的科技活动,都要进行科技伦理审查。其中如涉及“具有舆论社会动员能力和社会意识形态引导能力的算法模型、应用程序及系统的研发”,不仅需要进行内部审查,还需要外部复查。由此在《生成式人工智能服务管理暂行办法》之外,基于单位和机构的对人工智能业务的自我监管和伦理审查“软法”治理也已诉诸行动。“所谓软法,亦即不能运用国家强制力保证实施的法规范”。其范围包括如国家机关创制的纲要、指南、标准、规划;各类政治组织设立的自律性规则;名目繁多的社会共同体的自制规范等。其实施主要依靠国家激励、当事人自愿服从或者社会自治力等方式(罗豪才,宋功德,2009)。中国信通院发布的《人工智能伦理治理研究报告(2023年)》指出,应对人工智能的治理风险,制定和执行有关AI应用的伦理指导原则和法律法规显得尤为重要。“技术没有善恶,但并非中立”,因此对于新兴智能技术的治理,不仅需要相关监管机构的有效介入,也需要技术开发者、使用者以及社会力量共筑责任意识。
(四)“国家在场”
在对2023年网络内容治理工作的进展和现状的梳理中我们发现,在“2021年报告”中已有端倪的判断“具有关键决策行动能力的国家治理主体进入超级治理阶段”继续得到印证。而与国外互联网治理中观察到的“国家回归”(张志安,冉桢,2023)不同的是,在我国网络内容治理领域,国家作为治理主体从未曾缺席,而是一直“在场”。所谓“在场”是指“在一定时空场域,和场域中行动主体,以及相互关系的动态状况”。而“国家在场”是指“国家权力在社会的存在和体现,国家通过各种方式将社会纳入其庞大的管理体系以达到强有力的管理目的”(米格代尔,2013:16-23)。本报告引入“国家在场”是为了表明,在网络内容治理领域,国家深入到社会的各个层面且无处不在。近年来,数据治理一直是数字经济、网络社会治理的重点。2023年10月,国家数据局正式揭牌。国家数据局改变了数据治理“九龙治水”的格局,把数据资源整合共享和开发利用方面的有关职责集中起来,标志着我国面向数据资源的行政管理机制正式建立。而在社会价值观念方面,如“防止指尖上的形式主义”等问题的提出(中央网信办,2023年12月18日),更加把国家治理、内容治理、党群建设、意识形态等方面的要求落到了精微之处。
而与此同时,2023年我国的网络内容治理也面临来自以下方面的挑战:
(一)以宽严相济手法促进执法规范与法理相融
自2014年8月国务院授权国家网信办负责互联网信息内容管理工作至今(中央网信办,2014年8月28日),我国网络治理已进入新阶段,因此对网信部门的规范执法、公正文明执法提出了新的更高的要求。2023年新修订的《网信部门行政执法程序规定》对近年来网信执法领域取得的诸多改革成果予以确认和巩固,并积极落实《行政处罚法》中的“严格规范公正文明执法”的要求(中央网信办,2023年3月23日)。例如“规定”要求,网信部门对当事人作出行政处罚决定前,可以根据有关规定对其实施约谈,做到宽严相济、法理相融,让执法既有力度又有温度,营造优良宽松的网络法治环境。通过约谈这一“柔性执法”方式,对轻微违法者进行说服教育、劝诫,同样也能起到防止和减少严重违法行为、降低社会危害性的作用。可见,未来对于网络内容的执法,除了“重拳出击”也需要配合“柔性治理”。
(二)以敏捷审慎理念进行“包容性”立法
2023年针对以ChatGPT为代表的生成式人工智能的暂行管理办法的迅速出台,体现出敏捷治理的思路。之前包括对算法、深度合成等智能技术也分别出台了相应的管理办法。有研究认为,对于新兴技术的治理,目前主流的如基于要素场景的分散治理,以及风险形态尚未完全明确的事前治理,在不同程度上均具有系统局限性(郭小东,2023)。因此,为推动人工智能技术的可持续发展又规避其风险,治理需要具有“包容性法律治理”的特点。确保生成式人工智能的开发、部署和使用过程中各利益相关方权益平衡,注重保障“数字弱势群体”的权益,并运用技术方案、伦理规范和法律政策等多种治理工具,建立起安全可控、负责任和可追溯的机制。这种治理模式不仅需要政府和监管部门的参与,还需要包括企业界代表、学术界研究人员以及社会公众的共同参与。
(三)注重网络执法行动与网络社会心态适配
在2023年网络暴力和自媒体账号的治理中均出现了对网络实名制的讨论。根据北京互联网法院的统计,自2018年9月至 2023 年9月,该院审理的以自然人为原告的网暴案件共有612件,但有11件因为平台账号实名认证不一致等问题,导致侵权主体难以锁定,无法提起诉讼(法治日报,2023年11月24日)。而在自媒体账号治理的过程中,从要求加强“资质认证展示”落实到“网络大V前台实名”,粉丝量在50万以上的自媒体账号要在个人账号资料页展示实名信息的要求被误读和曲解为“人人都要前台实名制”,导致网络群体恐慌,尤其实名与否还会涉及到能否进入平台的热搜推荐,以及广告分成和打赏等经济功能时。近年来,清朗网络空间的各项行动卓有成效,但在一些具有广泛群众基础的问题上,如何及时调适网络社会心态中的致敏观念,避免焦虑蔓延带来不必要的网络舆情或群体恐慌,也是未来网络治理需要探索的安全边界。
(四)更大的平台数据权力对应更多保护责任
近年来基于智能技术的各类创新应用层出不穷,给社会生活带来了诸多便利。与之相对应的是,公众个人信息的“全数据”也越来越容易被各类应用搜集和获取,一旦这些数据集泄露,将会是决堤式的灾难。近期在杭州公安召开的信息发布会上透露,涉案人员在境外社交平台上建立了“个人信息库机器人”,不断加剧个人隐私信息泄露危机(新浪财经,2023年12月31日)。而随着平台、应用对公众生活的深度渗透,个人信息数据将更为集中地存储在作为软性关键基础设施的平台上,根据中国网络安全产业联盟(CCIA)数据安全委员会2023年11月发布的《〈个人信息保护法〉实施两周年观察报告》显示,微博、苹果、微信、企业、平台等都是个人信息保护领域备受关注的机构热词(中国网络安全产业联盟数据安全委员会,2023年11月)。平台作为数据守门人的责任和权力不断增强,而数字身份信息到处散落,如何更有效地保护公民数据权利,避免与其他数据模型、智能算法、特定服务相连造成意料之外的负面影响,将是未来网络“有为”治理亟需关注的问题。■
注释:
①鲁棒性(Robustness),指在控制论中,当一个控制系统的参数或外部环境发生变化(摄动)时系统能够保持正常工作的特性或能力。
②宪法AI(constitutional AI)是由AI公司Anthropic开发的相关微调过程,旨在尽可能少地使用人类的指导来引导大语言模型的行为。与结合人类反馈的强化学习(RLHF)不同,宪法AI不依赖于人类的标签或注释,而是为系统提供一系列指导规则或原则——即“宪法”——实质是用另一个模型来评估和修订现有的模型。该方案被认为非常具有前景,但目前还只是行业标准。
参考文献:
北京日报(2023年3月30日)。无下限!25岁网红自曝肝癌晚期竟是虚构,道歉就完了?检索于https://mp.weixin.qq.com/s/mUAYXkoOpvw_kbOjXfnnxw。
北京日报(2023年4月1日)。约谈!全网禁言!官方出手了。检索于https://mp.weixin.qq.com/s/vmF0kwD1-BzqNoTh1nxAZA。
北京知识产权法院(2023年3月21日)。北京首例!大量抓取短视频平台数据集合被认定构成不正当竞争。检索于https://mp.weixin.qq.com/s/7Ypb1-NL5zc76rZJQOinXA。
程啸(2022)。隐私政策的性质与法律规制。检索于http://www.legaldaily.com.cn/IT/content/2022-07/05/content_8743317.html。
丁晓东(2019)。数据到底属于谁?——从网络爬虫看平台数据权属与数据保护。《华东政法大学学报》,(5),69-83。
方师师(2023)。情境不对称条件下网暴综合治理的目标取向与路径探索。《青年记者》,(17),85-87。
方师师,贾梓晗(2023)。AI如何做新闻:基于全球106个案例的分析(2017-2022)。《青年记者》,(01),56-59。
方师师,唐巧盈(2023)。聪明反被聪明误:ChatGPT错误内容生成的类型学分析。《新闻与写作》,(04),31-42。
付玉明,刘昕帅(2023)。行为解构与危险溯源:“网络暴力”的刑事治理。《四川大学学报(哲学社会科学版)》,(6),170-179+196-197。
光明日报与武汉大学联合调研组(2021年8月19日)。App隐私协议现状调查:规范化程度较低,侵权风险高。检索于https://www.thepaper.cn/newsDetail_forward_14113618。
郭小东(2023)。生成式人工智能的风险及其包容性法律治理。《北京理工大学学报(社会科学版)》,(6),93-105+117。
高一飞蒋炼(2016)。网络实名制的发展及其规制。《广西社会科学》,(2),102–8。
机器之心(2024年1月9日)。OpenAI大呼冤枉,称《纽约时报》说法片面,吴恩达也为其发声。检索于https://mp.weixin.qq.com/s/HE3EuePNlItUrWOYX8Dt2g。
解放日报(2024年1月17日)。究竟是用户还是AI完成表达?难定义。检索于https://www.jfdaily.com/staticsg/res/html/journal/detail.html?date=2024-01-17&id=366085&page=05。
罗斌,唐恋,袁璐丝(2023)。个人信息保护维度下Chatbot的法律规制。《当代传播》,(2),39-44。
罗豪才,宋功德(2009)。《软法亦法——公共治理呼唤软法之治》,2-3。北京:法律出版社。
刘裕,周毅,农顔清(2022)。网络信息服务平台用户个人信息安全风险及其治理——基于117个APP隐私政策文本的内容分析。《图书情报工作》,(3),33-43。
刘紫川,桂勇,黄荣贵(2023)。“暴”亦有“道”?青年网暴实践的特征及价值基础。《新闻记者》,(09),3-18+96。
米格代尔(2013)。《社会中的国家:国家与社会如何相互改变与相互构成》。南京:江苏人民出版社。
年度网络内容治理研究课题组,方师师,万旋傲,卢垚(2022)。要素治理与关系协调:2021 年网络内容治理报告。《新闻记者》,(1),19-36+76。
年度网络内容治理研究课题组,方师师,万旋傲,卢垚,唐巧盈(2023)。层层深入与链式共进:2022年网络内容治理报告。《新闻记者》,(2),84-96。
澎湃新闻(2023年10月13日)。国内首个生成式AI安全指导性文件明确31种风险,建语料数据黑名单。检索于https://www.thepaper.cn/newsDetail_forward_24918140。
澎湃新闻(2023年11月21日)。AI技术合成虚假视频案,判了!。检索于https://m.thepaper.cn/newsDetail_forward_25387420。
人民日报(2023年11月6日)。百万粉丝“网红”落网!检索于https://mp.weixin.qq.com/s/HZIBXykWF57yCOnv5E3dng。
赛博研究院(2023年5月9日)。《信息服务深度合成管理规定》生效后首例!ChatGPT编假新闻牟利案侦破。检索于https://mp.weixin.qq.com/s/hrtdroaUNJbJ_0iNzfTBCQ。
社会科学报(2023年5月25日)。反思网络暴力的边界之惑与治理之困。检索于http://epaper.routeryun.com/Article/index/aid/7675427.html。
搜狐网(2023年8月11日)。小红书这下慌了!被怒指:擅自将用户的图用来训练自家AI。检索于https://www.sohu.com/a/710787723_116778。
万学忠(2023年11月24日)。实名制漏洞吞噬网暴治理成效。《法制日报》,第8版。
王利明(2023)。数据何以确权。《法学研究》,(04),56-73。
魏永征,周丽娜(2022)。《新闻传播法教程(第七版)》,284-285。北京:中国人民大学出版社。
宣长春,王小莉,李自得,侯雨飞(2023)。中国情境下社交平台隐私政策透明度对使用意愿的影响。《新闻大学》,(6),72-119。
许可(2023)。制度与技术同频共振:生成式人工智能治理的中国方案。检索于http://www.cac.gov.cn/2023-07/13/c_1690898364234016.htm。
新华网(2023年2月17日)。杭州3月1日取消限行?ChatGPT写的,警方已介入。检索于http://zj.news.cn/2023-02/17/c_1129373389.htm。
新浪财经(2023年12月31日)。涉众多明星、网红,警方通报。检索于https://finance.sina.cn/2023-12-31/detail-imzzwmrc3773865.d.html?vt=4&cid=76675&node_id=76675。
於红梅(2017)。从“We Media”到“自媒体”——对一个概念的知识考古。《新闻记者》,(12),49-62。
央广网(2023年11月23日)。B站披露一起“人肉开盒”案细节 公安机关:主要活动人员已被处罚。检索于https://china.cnr.cn/yaowen/20231123/t20231123_526495638.shtml。
殷琦,国秋华(2023)从静态机构到动态功能:互联网平台的内涵演变与治理转向。《现代传播(中国传媒大学学报)》,(04),135-142。
财经E法(2023年8月4日)。中国区苹果商店为何下架生成式AI应用?检索于https://mp.weixin.qq.com/s/WihDx1031-0pVipN08yMbQ。
最高人民法院新闻局(2023年9月25日)。关于依法惩治网络暴力违法犯罪的指导意见。检索于https://www.court.gov.cn/zixun/xiangqing/412992.html。
中国网络安全产业联盟(CCIA)数据安全工作委员会(2023年11月)。《个人信息保护法》实施两周年观察报告。检索于http://139.224.83.47/uploads/20231103/1499436b04f5ed039608ba13d6d4389c.pdf。
中国网信网(2023年3月6日)。多家网站平台发布防网暴指南手册和网暴治理情况。检索于https://mp.weixin.qq.com/s/VvoglZnmZ5zNHorYASYjbw。
中国网信网(2024年1月5日)。国家互联网信息办公室关于发布第三批深度合成服务算法备案信息的公告。检索于http://www.cac.gov.cn/2024-01/05/c_1706119043746644.htm。
中国信通院(2023)。人工智能伦理治理研究报告(2023年)。检索于http://www.caict.ac.cn/kxyj/qwfb/ztbg/202312/P020240103531660935078.pdf。
朱鸿军,李辛扬(2023)。ChatGPT生成内容的非版权性及著作权侵权风险。《新闻记者》,(06),28-38。
中华人民共和国科学技术部(2023年9月7日)。关于印发《科技伦理审查办法(试行)》的通知。检索于https://www.most.gov.cn/xxgk/xinxifenlei/fdzdgknr/fgzc/gfxwj/gfxwj2023/202310/t20231008_188309.html。
中央网络安全和信息化委员会办公室,中华人民共和国国家互联网信息办公室(2014年8月28日)。国务院关于授权国家互联网信息办公室负责互联网信息内容管理工作的通知。检索于http://www.cac.gov.cn/2014-08/28/c_1112264158.htm。
中央网络安全和信息化委员会办公室,中华人民共和国国家互联网信息办公室(2023年3月23日)。网信部门行政执法程序规定。检索于http://www.cac.gov.cn/2023-03/23/c_1681211418907384.htm。
中央网络安全和信息化委员会办公室,中华人民共和国国家互联网信息办公室(2023年7月13日)。生成式人工智能服务管理暂行办法。检索于http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm。
中央网络安全和信息化委员会办公室,中华人民共和国国家互联网信息办公室(2023年12月18日)。中央网络安全和信息化委员会印发《关于防治“指尖上的形式主义”的若干意见》。检索于http://www.cac.gov.cn/2023-12/18/c_1704564097557520.htm。
张志安,聂鑫(2022)。互联网平台社会语境下网络内容治理机制研究。《中国编辑》,(05),4-10。
张志安,冉桢(2023)。发展实用主义:中国互联网政策变迁与平台治理的内在逻辑。《新闻与写作》,(01),89-97。
de-Lima-SantosM. F.& CeronW. (2021). Artificial intelligence in news media: current perceptions and future outlook.Journalism and media3(1)13-26.
Ferrari, F.van DijckJ.& van den BoschA. (2023). Observeinspectmodify: Three conditions for generative AI governance. New Media & Society(00)1-19.
NewsGuard. (2023). Tracking AI-enabled Misinformation: 614 ‘Unreliable AI-Generated News’ Websites (and Counting)Plus the Top False Narratives Generated by Artificial Intelligence Tools, Retrieved from https://www.newsguardtech.com/special-reports/ai-tracking-center/
Organization for Economic Cooperation and Development. (OECD). (2019). “OECD AI Principles Overview.” Retrieved from https://oecd.ai/en/ai-principles.
UK Department of Education. (2023). The impact of AI on UK jobs and training. Retrieved from https://assets.publishing.service.gov.uk/media/656856b8cc1ec500138eef49/Gov.UK_Impact_of_AI_on_UK_Jobs_and_Training.pdf.
Verma, P. (2023). The rise of AI fake news is creating a‘misinformation superspreader’. Retrieved from https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/.
White House. (2022). The Impact of Artificial Intelligence on the Future of Workforces in the European Union and the United States of America. Retrieved from https://www.whitehouse.gov/cea/written-materials/2022/12/05/the-impact-of-artificial-intelligence/.
[作者简介]本文执笔:方师师,上海社会科学院新闻研究所副研究员;唐巧盈,上海社会科学院新闻研究所助理研究员;贾梓晗、叶梓铭,上海社会科学院新闻研究所硕士研究生。感谢课题组专家《新闻记者》特聘顾问魏永征、吕怡然、贾亦凡,《新闻记者》 编辑部刘鹏、王侠,复旦大学新闻学院白红义,上海社会科学院新闻研究所万旋傲、卢垚的指导意见。