上一期
下一期
目录
  • 22页
  • 23页
  • 24页
  • 25页
  • 26页
  • 27页
  • 28页
  • 29页
放大 缩小 默认 上一篇 下一篇
算法推荐新闻的法律透视
■刘文杰
  【本文提要】基于算法推荐的新闻聚合平台日益成为公众获取新闻的主要渠道。与更加注重指引与教化功能的新闻专业规范不同,算法推荐以用户偏好为准绳。对于推荐算法的设计者而言,重要的不是算法平台的立场,而是用户的阅读兴趣,这就是算法推荐的无价值性。市场经济条件下,新闻专业规范与算法推荐能够满足不同的用户需求,各有其存在价值。完全按照前互联网时代传统媒体的内容设置标准去要求算法推荐,作为一种信息传输方式的算法推荐将无可存在。单纯面向用户偏好的算法推荐和诸如网络搜索等传统网络信息定位服务类似,主要起到路标和指示牌的作用,应当适用“知情负责”责任和“通知——删除”程序。另一方面,鉴于平台在信息传输过程中所处的中枢地位,它在充分顾及公众信息需求的前提下负有合理范围内的违法内容过滤义务。
  【关键词】算法推荐 新闻专业规范 知情负责 责任避风港
  【中图分类号】G210
  基于算法的新闻推送成为不可回避的现实。美国皮尤研究中心发布的《2017年度美国社交媒体平台新闻使用报告》显示,截至2017年8月,美国成年人在社交媒体上看新闻的比例已达67%,50岁及以上的人群中,通过社交平台看新闻的人数比例首次突破半数,达到了55%,而18-49岁人群用社交平台看新闻的比例与去年持平,为78%。①在我国,打着“我们不生产新闻,我们是新闻的搬运工”旗号的新闻聚合平台也成为公众获取新闻的主要渠道。算法推荐的是与非日益成为社会各界关注的对象。
  使用算法向用户推送新闻的新闻聚合平台虽不是新闻的生产者,却日益成为互联网时代新闻传播的枢纽,对此类平台在法律上应当如何定性,是否如某些观点所言“聚合平台也是媒体”,这是理论上迫切需要回答的问题。②
  
一、问题的提出:站在风口浪尖的算法
  (一)针对算法推荐新闻的两种观点
  在我国,算法推荐新闻近年来可谓风生水起,同时似乎也成了众矢之的。2017年9月,人民网针对算法推荐连续发表3篇评论,文章认为,当技术、代码、算法替代了传统内容分发过程中编辑的角色,单一的吸引眼球标准导致劣质内容泛滥,呈现一波未平,一波又起的局面。③来自新华网的批评同样尖锐:“一些平台打着定制服务、精准推送的幌子,让算法变成了打擦边球的工具。” ④
  权威媒体的报道和严厉批评之后是算法平台争先恐后的认错。2018年3月31日,央视《新闻直播间》报道快手平台上出现大量未成年妈妈视频。4月3日,快手CEO宿华发表公开致歉信表示:“社区运行用到的算法是有价值观的,因为算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观上的缺陷。”他承诺,要用正确的价值观指导算法,让所有的算法规则服从健康积极、阳光向上的价值观。⑤2018年4月10日,国家广播电视总局责令今日头条永久关停“内涵段子”客户端软件及公众号。次日凌晨,今日头条创始人、CEO张一鸣发表公开致歉信。在信中,张一鸣表示:“一直以来,我们过分强调技术的作用,却没有意识到,技术必须要用社会主义核心价值观来引导,传播正能量,符合时代要求,尊重公序良俗。”他保证将强化总编辑责任制,全面纠正算法和机器审核的缺陷,将人工运营审核队伍扩大到1万人。⑥
  相对于国内一些指斥算法是洪水猛兽的观点,国外研究者的看法有所不同。“算法遵循的是预先选择的程序,而不是及时的判断,它们围绕的是吉莱斯所说的算法客观性假设——算法是中立的,因为它将所有的信息数据投入到同样的程序中……算法背后的知识逻辑从强调公众普遍认可的重要性,转移到基于用户的特定属性和搜索的个性化新闻和碎片化新闻上。算法的速度和蕴含的个性化潜质让这类新闻生产环境蓬勃发展。” ⑦按照这一观点,所谓新闻推荐算法就是评判一条新闻是否符合用户兴趣的计算方法,体现为计算机程序,与“让广大受众被迫地接受”相反,算法服务于满足用户需求,节省其信息查找成本。其实,今日头条的官方介绍曾经也持这一立场:没有采编人员,不生产内容,没有立场和价值观,运转核心是一套由代码搭建而成的算法。
  (二)问题的关键:算法推荐行为的法律定位
  如何规范算法推荐,取决于法律上如何定位算法推荐行为。传统上,传媒法领域存在着出版者(publisher)与发行者(distributor)的区分。两者的区分标准在于是否对传播的内容实施“编辑控制”。诸如报社、杂志社、出版社、广播电台、电视台等传统大众媒体,从事内容生产和发布,对所发布内容实施审核、形式修改、篇幅调整,并决定是否发表,无论是首发内容或转载其他媒体内容,在性质上均属于出版者。而诸如书店、图书馆、报刊亭、音像出租者,虽以内容为产品,但它们在社会分工中承担的角色仅仅是信息的传递人,对所传递的信息基本上不实施编辑控制,法律上定性为发行者。
  区分出版者与发行者的意义在于,出版者的注意义务相对重于发行者。虽然两者均依过失而对诽谤性言论负责,但在过失认定时,发行者一般承担“知情负责”(liability upon knowledge)责任,也就是实际了解到存在诽谤言论时始负责任,而出版者由于对内容实施编辑控制,或者说享有编辑控制权,理应对所发布的内容完全知情,且对内容是否具有诽谤性应当具有相应的判断能力与经验,因此在争议言论具有诽谤性时,出版者的过失相对容易认定。⑧与此不同,信息的发行者由于不对内容实施编辑控制,原告若要主张发行者对诽谤言论负责,必须首先证明发行者知道或者应当知道相关信息的内容,证明这一点相对困难。⑨
  区分出版者责任与发行者责任,不但是社会分工的实际要求,更有利于信息自由流动,保护公众的知情权。1959年,美国联邦最高法院在史密斯诉加利福尼亚案中强调,要求发行者承担与出版者相同的责任,会造成发行者的自我审查,这样一来,加给书商的负担会成为公众的负担,因为对书商施加限制也就是限制公众获取阅读材料。如果书店和报刊亭只能经营他们审核检查过的内容,那么可以出售材料的数量势必锐减。“……书商基于州法采取的自我限制将演变成为影响到全部公众的新闻审查,这一后果的坏处并不因为审查的私人性质而有所减弱”。⑩
  对同样服务于信息传播的算法推荐法律上做怎样的定位,将决定对此类行为适用何种类型的责任规范。上文所举的对算法推荐持强烈批评态度的媒体似乎更倾向于将算法推荐也看作是一种编辑控制下的内容供给,视推荐平台为出版者,并据此提出,算法推荐的出路在于用新闻专业规范指导算法,即,任何时候内容推送不能少了“总编辑”,再好的传播渠道也要有“看门人”。[11]这一观点是否妥适,值得讨论。
  
二、算法推荐的基本属性
  算法推荐了一条“低俗内容”只是事物的表象,而不是其本质。即便在遵循新闻专业规范的大众传媒如报刊、广播电视领域,发生“低俗内容”传播的例子比比皆是。仅仅因为通过算法推荐而传播了不良内容,就做出诛心之论,尚显仓促。对推荐算法进行正确评价的前提是准确认识这一事物。
  (一)算法是计算和评判方法
  算法是人的智力活动成果,大量算法追求的是如何最大限度拟合某种客观规律,说白了就是设计一套计算公式,期冀对数据的计算结果与实际情况相符。这个意义上的算法属于科学技术范畴。算法并不神秘,生活中每个人或多或少都会掌握一些算法。圆面积计算公式S=πr平方就是一种算法。当然,今天人们谈论的算法主要是指自动化的计算程序,但它仍然保留了计算公式、计算方法的属性。
  例如,在《面向互联网新闻的在线话题检测算法》一文中,作者要完成的任务是,通过参数和公式设置,能够从给定的网络新闻中快速有效地检测出新话题和热点话题。对此,作者设计的方案是:提出子话题概念缓解信息冗余问题;建立包含子话题层和话题层的双层检测结构缓解议题发散问题;建立基于滑动窗口的跟踪策略缓解话题漂移问题等。所有这些设计都是为了比传统算法更快速更有效地从海量新闻中检测出热点话题。[12]这里,作者并不关心话题内容,不依据价值立场进行话题取舍,其算法是中立的。假如这一算法存在缺陷,也是方法设计缺陷,而不是快手CEO宿华所痛心疾首的“价值观上的缺陷”。
  再以《负面新闻判定算法的研究与应用》为例,作者指出,现有的构建分类器的统计方法和抽取情感特征的语义分析方法在识别相关负面新闻上有其局限性,更好的方法是融合依存语法和简化的格语法理论,结合情感词典对关键句群进行主题相关的语义倾向性分析。具体的识别方法是:(1)先提取关键句群,然后进行词与词之间的语义或语法依存关系分析,再对句子倾向性进行打分,例如,当情感词为正面且关键字在施事格时,判断句子为正面,得分为1;当情感词为负面,且关键字在承受格时,判断句子为负面,得分为-1;(2)通过语义格框架和语义分析两种策略的融合,得到关键句得分,如果目标文本最终的总得分为负,则判定该篇文章为负面新闻,总得分为正,则判定为正面新闻,总得分为零,表示文章没有明显的情感倾向性。[13]这一算法旨在快速、准确识别特定主题的负面新闻,无论它是否有效,都是价值中立的。
  新闻推荐算法亦不例外,同样属于计算方法和程序。算法的设计以对群体及个体行为习惯的掌握作为基础,这是因为算法归根到底是一种预测,即“猜出”网络用户真正感兴趣的内容并且推送给他。[14]以Facebook新闻推送项目News Feed为例,该项目的算法经历过三个主要阶段,起初以用户处产生的互动作为排名的依据,后来又对每个因素的权重进行了优化,在第三阶段,设计团队设置了一套协同过滤机制,安排算法工程师和数据科学家对用户点赞评论和点击进行重新评估,并由员工对算法推荐的准确度进行亲身体验。改进算法旨在更大程度地使算法所得出的结果贴近用户的偏好,[15]换言之,社交平台上算法推荐的基础思想可以归纳为“你的社交圈关注的也会是你关注的”。[16]概括地说,新闻推荐算法设计的第一步是确定应当纳入算法的计算因素(指标),随后赋予这些因素不同的权重,再通过观察和测试,得出包含这些因素的计算公式(其中可能包括参数的设置),也就是“确定计算元素→赋予权重→参数设置→形成公式”。在确定圆的面积计算公式时,首先确定面积与半径有关,从而将半径列为计算元素,进而发现与半径的平方有关,再确定常数π,得出公式S=πr平方,推荐算法的确定与此有所类似。
  (二)算法推荐的无价值性:与新闻专业规范的对比
  新闻专业规范之下,理性人假设得到推崇,新闻业被看作实现公民自治的有力推手,是“把关人”。“新闻业对一个文化而言有其独特的作用,为公民提供实现自由所需的独立、可靠、准确、全面的信息”。[17]当采集到的新闻素材制作成大范围传播的新闻产品时,新闻选择预设了一个单一的、对于相对重要性的统一排列。新闻记者就是“道德的放大器和组织者”,他们严格坚持了“道德显著性的等级排列”。[18]有目的排序的报纸故事等同于创造一个“社会地图”,这个“社会地图”不仅告诉我们发生了什么,而且会告诉我们所发生的事件中哪些事是相对比较重要的。[19]新闻专业规范之下的媒体是有立场的,这不但体现在媒体的社论板块,在传递事实层面也能够看出媒体的偏好。新闻专业规范的支持者相信一条基本的原则,人民是可以通过负责任的媒体加以教化的,因此,应当通过新闻的传播潜移默化地使公众接受新闻业的立场。
  算法推荐的底层设计思想恰恰与新闻专业规范相反。算法推荐新闻就其本质而言是将选择阅读何种新闻的决定权交给用户。虽然名为算法推荐,表面上来看似乎是算法平台为用户选择内容,其实不然,从前文的介绍可知,算法推荐新闻是以对用户偏好的了解为基础的,需向用户“推荐”的是用户想看的内容。“算法判断是有弹性的,基于个体的……这样一来,新闻业专业判断的核心问题——‘什么值得关注’转变为个性化的追问——‘这个人想要什么’”。[20]对于推荐算法的设计者而言,重要的不是算法平台的立场和偏好,而是用户的阅读兴趣。这就是算法的无价值性。不同新闻聚合平台使用的算法可能产生不同的推荐结果,但这并非一定是算法设计方有意扬此抑彼,而完全可能是设计者对相关指标的选取和权重设置不同而发生的差异。“点击量、点击率、转发数、评论数、收藏数、不喜欢数,都是重要的参考指标。算法就是把规则注入电脑,并根据用户大数据形成一点资讯的内容推荐逻辑”。[21]如果完全按照纸媒内容设置的传统做法去要求算法推荐,例如按照传统媒体对新闻的排序和不同类型新闻所占比例(以屏幕为单位)向用户推送,那么作为一种商业模式或者说信息传输方式的算法推荐也就不存在了。不过,算法推荐之所以产生,恰恰由于移动互联时代用户拥有了前所未有的选择权,以算法推荐为名提供一张电子化的报纸,则不喜欢此种编排的用户关掉、删除相关APP易如反掌。因此,类似于纸媒那样将事先拼好的各类内容进行捆绑式推送的方式很难再一统江湖。
  讨论至此可以明确的是,用户收到的内容固然来自算法平台的推送,但这推送却不是平台人为安排,而是由自动化程序驱动的“投其所好”。简言之,如果一位用户经常浏览犯罪报道,他就会收到来自平台的更多犯罪报道或相关信息(链接)。假如一位用户收到的推送内容与其浏览历史等毫不相关,内容背后的算法很可能不是来自用户偏好,而是属于名为服务用户实为夹带私货。
  
三、算法推荐新闻的法律规范路径
  算法推荐新闻是一种网络服务,很多人认为,提供这种服务的平台也是媒体,对此类平台应当给予与报刊等纸媒、电台电视台及新闻网站一样的法律对待。这种观点是否妥当呢?
  (一)作为一种网络服务的算法推荐行为的法律定位
  进入网络时代以后,以美国1998年《千禧年数字版权法》(DMCA)为代表的立法赋予网络服务提供者以类似于发行者的法律地位,对其同样适用“知情负责”责任,并照顾网络的特点而增设了“通知——删除”程序。[22]我国《信息网络传播权保护条例》基本上照搬了DMCA的立法模式,为互联网接入和传输、系统缓存、信息存储及信息定位四类网络服务设立了四个责任避风港。算法推荐能否适用责任避风港规定,需要将其与上述四类网络服务加以比较。
  首先,算法平台自身并不生产内容,算法平台所推荐的新闻是由第三方制作的,算法不是平台所雇用的记者。其次,算法平台的人员并不阅读和挑选推送的内容,事实上这也是不可能做到的,恰恰是互联网信息的海量传输凸显了算法推荐的重要性。“通过算法可以实现260万个长尾频道的订阅,可以在2万多个领域里进行个性化推送,这是编辑干不了的事。算法的价值就在于通过清晰的用户画像为其匹配,文章匹配得越精准,用户就越想看”。[23] “在数字新闻网站中,推荐引擎可以分析用户过去的行为和偏好,为用户呈现和他们潜在相关度最高的新闻内容,推荐的目的是让用户活跃起来,从而增加页面浏览量和广告浏览”。[24]因此,跟随用户兴趣的算法也不是按照自己的价值观进行选择性发布的编辑。
  归根到底,算法之所以向用户推荐某条新闻,在于新闻内容中的某些元素经由计算与用户兴趣相符合,就其功能而言,算法推荐和诸如网络搜索等传统的网络信息定位服务类似,主要起到路标和指示牌的作用。
  有观点可能认为,算法对内容的呈现从来都不是被动的,而是“主动”对内容进行的组织,这里的“主动”涉及一整套推荐机制,且算法中的参数与指标也在不断变化。针对这一观点,应当区分技术意义上的“主动”和法律归责要件意义上的“主动”。网络服务商不断改进其推荐算法,使得推荐结果与用户兴趣更加吻合,例如,平台开发的某种算法最开始仅仅以用户行为特征(爱好竞技)作为判断其阅读兴趣的指标,随着研究的深入,又先后将用户社交特征(粉丝团成员)、访问历史、地理位置、设备情况等先后加入算法,这些都是技术意义上的“主动”改进推荐机制,并不改变平台既不生产内容也不按照自己的导向推送内容的实质。不存在这样的法律规则:算法越精良,网络平台越偏向于出版者。而与法律归责要件相联系的“主动”,则是指网络服务商按照自己的偏好向用户提供内容,唯此方能使网络服务商领取出版者头衔。
  不可否认,算法推荐与互联网搜索服务还是存在区别的。对于普通的互联网搜索服务而言,需要用户先在搜索框内输入关键词,搜索服务平台再根据关键词给出搜索结果,而在算法推荐之下,无需用户输入关键词,而是由推荐平台自动向用户推送相关新闻。这样一个事实是否构成主动的出版行为,从而使推荐平台落入出版者范围呢?如上文所言,算法本身并不生产内容,而只是在新闻内容中进行特征抓取,再将这些特征与用户兴趣(相当于以用户的偏好作为搜索关键词)加以比对,得出相关内容是否符合用户阅读兴趣的结论,从而完成推送。这种推荐行为和书店营业员因为某位读者对某个主题的图书表现出兴趣而向其推荐相近主题的图书相似,事实上,将相同主题的图书一起摆放也属于一种推荐行为。显然,无论是营业员的推荐还是书店的图书放置都不会让书店背负上出版者责任。与此相似,算法推荐更像是网络空间的电子营业员或者电子书架。
  (二)算法推荐新闻的法律调整原则
  由以上讨论可知,对于面向用户兴趣的算法推荐平台应当以“知情负责”和“通知——删除”程序为基本法律调整框架。而对那些自行决定推送内容和序列的伪算法推荐平台,则应适用出版者责任。需要说明的是,不能因为出现了低俗内容的推送,就认定是平台有意为之。这不仅是由于“低俗”本身内涵模糊,实务认定又具有极大的弹性,更是因为在识别低俗内容方面算法难以毕其功于一役,那些限于当前技术过滤水平而无法识别的所谓低俗内容即使到达用户,也属于“发展缺陷”所致,对此平台应当免责。
  另一方面,即就真正的推荐平台而言,既然其日益成为信息分发的枢纽,也就不可避免地要承担起信息管理的责任。[25]通过事前过滤对违法内容传播的风险加以控制,从根本上讲是一个投入多少的问题。平台缩小内容传播的规模,加大内容审核力度,这种风险就必然降低。问题是,对控制传播风险提出过高要求,将意味着算法推荐的名存实亡,使这种“你关心的,才是头条”新兴商业模式消失。即便是自动过滤,看似成本低廉,由于传播内容的复杂多样,必然出现漏判、误判的风险,仍然需要人工审核的配合。因此,平台对违法内容的事先过滤义务只能是一种合理注意义务,需要与公众信息需求相平衡。当然,聚合平台不能以算法为借口拒绝开发和采用过滤系统,而是应当在自动化系统和措施之外,再根据需要增设人工审核方式,[26]此外还应持续迭代其审核标准和技术保障措施;对于违规新闻源,应当及时予以适当的惩戒,包括建立黑名单制度等等。此外,对用户画像是个性化推荐的基础,[27]从而“可以更好地结合广告”。[28]在对用户画像方面,算法平台自当遵守个人信息保护的各项原则,兹不赘述。
  另一个当前讨论较多的问题是,算法推荐平台是否有法律义务通过调整算法,防止出现“一味推送娱乐八卦内容”的情况?其实,“一味推送娱乐八卦内容”只是某些媒体的说法,是否反映实际情况,尚待考证。人类社会一进入电视时代,研究者就敲响了“娱乐至死”的警钟。泛娱乐化显然不能完全算在算法头上。只要稍微采取客观的立场,人们就不得不承认,西方以教化公众为己任的新闻专业规范还有大量它无法抵达的角落,那些角落里的人群从根本上拒绝接纳精英立场的专业媒体,反倒可能对泛娱乐化、极端意识形态立场的所谓“黄色媒体”情有独钟。即便在传统媒体非常发达的美国,将专业媒体报道蔑称为“假新闻”(fake news)的特朗普依旧赢得了亿万美国选民的拥护。没有充分的证据证明,算法推荐将使传播在总体上陷于低智化和娱乐化,它至多只是部分地重塑了传播格局而已。
  算法推荐把在信息的海洋中甄别的权利交给用户,让用户自己在试错中成长或者倒退。这一做法就传播伦理而言是否妥当,论者尽可以见仁见智。但有一点是可以肯定的,不是算法推荐新闻,也不是新闻专业规范能够完全决定普通人的信息偏好,决定一个人选择阅读何种信息的是更深层次的原因,接纳算法推荐充其量只是结果而已。相校对泛娱乐化的批评,不应忘记接触娱乐性内容也是公民的基本权利,订阅严肃(新)媒体、阅读严肃内容不是公民的基本义务。某些内容可能确无启迪教育价值,对一些人沉溺于此可以发出警示,但不宜以打击泛娱乐化之名剥夺公众接触娱乐内容的权利。
  更应注意的是,要求算法推荐贯彻新闻专业规范,意味着对可传播内容提出标准,需要权威机构向算法平台发出强制性要求,可能带来一种审查制度的建立。按照《互联网信息服务管理办法》第十五条的规定,互联网信息服务提供者[29]不得制作、复制、发布、传播含有有害内容的信息,即“九不准”要求,例如散布淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪的信息。包括新闻聚合平台在内的推送主体均不免于本条之下的合理的内容审核义务,但娱乐内容显然不在屏蔽之列。如张一鸣的公开致歉信所承诺的“我们必须保证所‘创作’与‘交流’的内容是积极向上的、健康有益的,能够给时代、给人民带来正能量”,也就是积极进行舆论引导,它并非《互联网信息服务管理办法》赋予企业的法律义务,而是企业基于综合考量自愿承担社会责任。就当前而言,在算法推荐中对正能量内容人为地赋予一定权重,大概是一种较为稳妥的做法,就这部分人为设置内容,算法平台恐怕要承担一定的出版者责任。
  
结语
  本来意义上的新闻推荐算法是对用户阅读兴趣的发掘,具有价值中立的属性。不过,由于算法反映的是开发者的认识,也就难以避免带有人的认识局限。有相对正确的算法,也会有误差较大甚至是错误的算法。不能因为算法不尽如人意就指责算法设计者用心不良。不能排除网络平台在算法中夹带私货的可能性,但从长期来看,不以用户友好为宗旨的商业网站在充分竞争环境下将难以生存。声称一切算法推荐都是操纵民意、有意毒化用户的观点属于对算法或平台的妖魔化。新闻专业规范和算法推荐作为两种内容传播方式在数字媒介时代可以并行不悖,相互补充。[30]另一方面,如果算法设置本身就诱发或者极大地提高了违法内容的传播风险,例如将显然传播违法内容的新闻源纳入推送范围,平台已然存有过错。而一旦平台通过某种预先设置,介入内容的生成与传播路径,摇身一变为出版者,即无权以算法为盾牌主张责任避风港待遇。■
  
①http://dy.163.com/v2/article/detail/CU2OMGUH05118VJ5.html
②本文不研究由机器生成的“算法新闻”,在这一主题之下,除了新闻生产的自动化问题,还涉及版权的有无和归属问题。参见吴锋:《发达国家“算法新闻”的理论缘起、最新进展及行业影响》,《编辑之友》2018年第5期
③《人民网一评算法推荐:不能让算法决定内容》,http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html;《人民网二评算法推荐:别被算法困在“信息茧房”》,http://opinion.people.com.cn/n1/2017/0919/c1003-29544724.html;《人民网三评算法推荐:警惕算法走向创新的反面》,http://opinion.people.com.cn/n1/2017/0920/c1003-29545718.html.
④《不能让算法决定内容》,http://www.xinhuanet.com/local/2017-10/05/c_1121763070.htm
⑤http://tech.sina.com.cn/roll/2018-04-03/doc-ifyswxnq1898598.shtml
⑥http://tech.ifeng.com/a/20180411/44944952_0.shtml
⑦马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
⑧我国著作权法第五十三条对出版者的要求是就内容本身取得“合法授权”,而对发行者的要求则是就载体的取得有“合法来源”,从而区分了两者的责任轻重。笔者注。
⑨Restatement (Second) of Torts § 581(1977).
⑩Smith v. California, 361 U.S. 147 (1959).
[11]《人民网一评算法推荐:不能让算法决定内容》,http://opinion.people.com.cn/n1/2017/0918/c1003-29540709.html.
[12]程葳、龙志祎:《面向互联网新闻的在线话题检测算法》,《计算机工程》2009年第18期
[13]曹欢欢、谢兴生:《负面新闻判定算法的研究与应用》,《小型微型计算机系统》2015年第5期
[14]作为算法之一类的数据挖掘算法即致力于寻找事物之间的依存性和关联性。参见范红霞、孙金波:《数据新闻的算法,革命与未来趋向》,《现代传播》2018年第5期
[15]方师师:《算法机制背后的新闻价值观——围绕facebook偏见门事件的研究》,《新闻记者》2016年第9期
[16]参见张一鸣:《机器学习能带来更有趣的世界吗?》,极客公园创新大会主旨演讲,2015年1月17日。张一鸣:《世界互联网大会主题演讲》,2016年11月17日。
[17]Kovach B and Rosenstiel T (2001) The Elements of Journalism.New York: Three Rivers Press. p. 3.转引自马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
[18]Schudson M (1998) The Good Citizen. New York: Free Press. 转引自马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
[19]Barnhurst KG and Nerone JC (2001) The Form of News. New York: Guilford Press. 转引自马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
[20]马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
[21]《新闻人如何与算法共事——对话一点资讯副总裁兼总编辑吴晨光》,《中国记者》2016年第2期
[22]美国《通讯庄重法》(CDA)第230条采“好撒马利亚人”理论,适用该条规定作出的Zeran v. AOL案判决认为,一切“交互式计算机服务的提供者或使用者”只要不是“创建或者发展”了内容,换言之不是“信息内容提供者”,就受本条庇护,无需为其网站上出现的违法内容负责,从而比较彻底地免除了网络服务商的出版者及发行者责任。Zeran v. AOL129 F.3d 327 (4th Cir. 1997).这种将利益天平过分向网络服务商倾斜的规范模式遭到很多批评。参见刘文杰:《从责任避风港到安全保障义务——网络服务提供者的中介人责任研究》第45页以下,中国社会科学出版社2016年版。
[23]《新闻人如何与算法共事——对话一点资讯副总裁兼总编辑吴晨光》,《中国记者》2016年第2期
[24]马特·卡尔森:《自动化判断?算法判断、新闻知识与新闻专业主义》,张建中编译,《新闻记者》2018年第3期
[25]参见刘文杰:《网络服务提供者的安全保障义务》,《中外法学》2012年第2期
[26]“一点资讯”将稿源分为六级,包括基本不可用的垃圾源;部分可用的二级源,对这部分水源要过滤掉假新闻、谣言和标题党等内容;三级以上为基本可信源和可信源。新闻人如何与算法共事——对话一点资讯副总裁兼总编辑吴晨光,《中国记者》2016年第2期。
[27]张一鸣:《机器替代编辑?》,《传媒评论》2014年第3期
[28]《新闻人如何与算法共事——对话一点资讯副总裁兼总编辑吴晨光》,《中国记者》2016年第2期
[29]美国1996年《通信庄重法》第230条区分信息内容提供者(Information Content Provider)和交互式计算机服务提供者,对二者定义的讨论参见刘文杰,前引书,第16页以下。
  美国1998年《千禧年数字版权法》第512节对网络服务提供者给出两个定义,第一个定义指网络接入、传输服务提供者,而第二个定义则既包括接入和传输服务提供者,也包括责任避风港之下的其他网络服务提供者,参见刘文杰,前引书,第84页以下。我国《信息网络传播权条例》实际采用了后一种界定。
  《互联网信息服务管理办法》所称的“互联网信息服务提供者”则是基于行政管理的考虑所设的概念,虽然该行政法规给出的定义是“通过互联网向上网用户提供信息的服务活动”的从事者,文义上更趋近于网络内容提供者(出版者),具体适用却往往涵盖一切互联网信息发布者和信息发布提供平台、渠道等支持的主体,与之相比,《信息网络传播权条例》关于“网络服务提供者”的界定更为科学,规则更为合理。
[30]基于新闻专业规范的报道完全可能借助新闻聚合平台而获得大量关注。可参见蔡雯、杜华敏:《从一次“新闻反转”看新闻业的“危”与“机”——以“瑞典警察殴打中国人”事件为例》,《新闻记者》2018年第11期
  
刘文杰系中国传媒大学政法学院教授。
  
  
  
  
主管单位: 上海报业集团
主办单位: 上海报业集团      上海社会科学院新闻研究所