上一期
下一期
目录
  • 39页
  • 40页
  • 41页
  • 42页
  • 43页
  • 44页
  • 45页
  • 46页
  • 47页
  • 48页
  • 49页
  • 50页
放大 缩小 默认 上一篇 下一篇
算法机制背后的新闻价值观
——围绕“Facebook偏见门”事件的研究
■方师师
  【本文提要】本文通过分析“Facebook偏见门”事件,剖析平台型媒体动态新闻推送的算法机制,探讨该机制对当下社会可能产生的潜在影响。文章发现,Facebook的动态新闻算法是一种基于用户社交使用的协同过滤机制,目的在于过滤出对于用户“有意义”的信息;该机制有可能会在当前的社会条件下产生算法审查、信息操控与平台偏向,从而影响受众态度。而这样的推送机制也挑战了传统的新闻价值观。
  【关键词】平台型媒体 算法机制 新闻价值观 可信任原则
  【中图分类号】G210
  社交媒体转型平台型媒体(Platisher)①已成为业界趋势。社交网站、移动社交应用正成为获取信息和新闻的主流“入口”,一批有着“社交基因”的新闻应用——Facebook的Instant Articles,Twitter的Moment,Snapchat的Discover等,正在重构媒介生态。2016年5月26日美国皮尤调查研究中心发布的《2016美国社交媒体平台新闻使用报告》显示,62%的美国成年人从社交媒体上获取新闻。比对9大社交媒体的追踪数据,用户使用社交媒体获取新闻的前三位是Reddit(70%)、Facebook(66%)和Twitter(59%)。但考虑到不同社交媒体在美国的渗透率不同,调整之后Facebook以44%的覆盖率成为最大的新闻消息来源,其次是YouTube(10%)和Twitter(9%)。②
  相比2012年49%的美国成年人是在社交媒体上“看”(See)新闻,2016年62%的美国人则是从社交媒体上“获取”(Get)新闻的。9大社交媒体中,相比Linkedin、Twitter以及Reddit这样以职业/信息/专业为主的社交媒体,使用Instagram、Facebook和YouTube获取新闻信息的用户更加倾向于“偶遇新闻”——即不是为了看新闻去主动搜索,而大多是在做其他事情的时候,被动地被推送而已。考虑到在这些用户中,64%只从1家社交媒体获取新闻,26%从2家社交媒体获取新闻,同时看3家以上的只有10%,Facebook坐拥16.7亿月活跃用户,③1.51亿移动月活跃用户,84.2%的用户在美国和加拿大以外,④给传统媒体带来20%的新闻口流量,俨然已经成为了“世界上最为高效普及的每日新闻”。⑤
  作为新闻业在数字环境下“后台前置”⑥的下一个阶段——“把关后移”的主体, Facebook正逐渐转型为平台型媒体,网站与新闻推送之间的连接关系越发密切,但由此也形成了另外一种担心:这种基于社交关系为底层算法机制产生的新闻推送,是否符合Facebook正在转型成为的平台型媒体的身份?如果Facebook真正成为下一代“新闻媒体”,它是否需要遵守传统新闻的价值规范?2016年5月初,“Facebook偏见门”成为美国各大媒体、网站、机构和党派热议的话题,此次事件也为我们系统地检视以Facebook为代表的平台型媒体在新闻推送问题上面临的问题,并由此思考它会对社会带来的潜在影响。
  
一、“Facebook偏见门”中的问题争议
  2016年5月初,两篇来自科技博客Gizmodo的文章——《想知道Facebook是如何对待记者的?雇佣之后就知道!》⑦《前Facebook员工:我们常规性地压制保守派新闻》,⑧点燃了Facebook“偏见门”的引线。这两篇由前负责Facebook“趋势话题”(Trending Topics)的合同工(contractor,非正式员工)匿名提供材料形成的文章显示:2014年1月“趋势话题”上线伊始,Facebook就组建了一个约二三十人的专业编辑团队;这些年轻的编辑大多毕业自常青藤名校或东海岸的私立大学,有在美国主流媒体从业的经验;他们负责策划Facebook网站右上角的“趋势话题”板块,他们可以获取Facebook算法浮现的结果,然后决定该部分话题的优先性和分级列表;该板块常规性地压制美国右翼保守派的媒体及其报道,有些话题被人为“注入”(inject)话题框架,避免提及Twitter是内部不成文的规定;这一板块操作起来如同传统媒体的新闻编辑室,会体现出了工作人员和公司的偏见。
  虽然“趋势话题”只是Facebook网站上一个很小的板块,在手机终端上还不太看得到,但恐慌却在蔓延,因为这同Facebook之前声称自己是一个“中立开放”平台的说法大相径庭。5月10日,美国商务委员会主席、共和党参议员约翰·图恩(John Rhune)发表声明,要求Facebook对此事件进行解释;白宫新闻秘书处则督促媒体展开调查。⑨《卫报》最先跟进这一事件,《纽约时报》在5月17日以《Facebook正在拯救新闻业还是毁了它?》为总标题,刊发了一组4篇由来自专业期刊、大学机构等业内学界专家的评论:《被操控的新闻业,对读者无益有害》《Facebook曾促使新闻民主化,但新变化背道而驰》《提供平衡的信息并非Facebook的目标》以及《喜欢或不喜欢,Facebook现在是一家媒体公司》,⑩几乎将Facebook推到了平台公正、信息平衡、信息民主等准则的对立面。虽然也有媒体认为这有些小题大做了,比如《华尔街日报》就认为“有点夸大其词”,[11]但“偏见门”的争议依然在发酵,正反方面的意见彼此交织,《Facebook效应》的作者大卫·科特帕特里克(David Kirkpatrick)近日接受采访时表示,“新闻偏见门”对Facebook构成了前所未有的挑战。
  
二、Facebook的算法机制
  此次困扰Facebook的“偏见门”事件,使公众对其所称的算法机制产生怀疑。对于新兴的原创互联网公司来说,基础架构和算法机制从根本上决定着公司的业务与风格。
  算法可以解释为“用于解决某一特定问题或达成明确的目标所采取的一系列步骤”。本文所探讨的算法重点是在计算机中运行的算法。根据2014年哥伦比亚tow数据新闻研究中心发布的《算法可信度报告:调查黑匣子》,“自动化的决策过程是算法力量的核心”。[12]而算法的决策主要基于流程规律、已经发生的情况或根据海量数据计算出的结果。通常算法进行自动决策依赖以下四个主要过程:排序、分类、关联和过滤。
  1.排序:排序或称划分优先级,其目标为以突出强调部分事物,淡化其他项。
  2.分类:分类的过程是通过检验某一事物的部分特征,将其划分到一个特定的组别中。
  3.关联:关联的过程标注出不同事物之间的关系。
  4.过滤:过滤的过程根据不同的法则或标准包含或排除了特定的信息。
  虽然听起来算法似乎只是一种计算机程式,但实际上多种人为因素的影响都会内嵌在算法规律之中,例如判断标准的选择、数据提取、语用分析和结果解读等。因此,任何针对算法的研究都必须将算法视作人为创造物,并将创造者或其从属的团体或机构的意图纳入考量范围。
  从2005年开始,Facebook陆续开发出多项以“面向使用者经验”为核心的社交基础架构,包括上传照片及标记朋友、动态新闻(News Feed)等,后者可以让用户看到最近更新的照片、视频和文章流;2011年,Facebook保留了部分核心基础架构,将个人档案页面和涂鸦墙以新的“时间轴”(Timeline)的形式展示,并推出新的“社交图谱搜寻”(Social Graph Search)取代旧的搜寻方式;2013年,Facebook开始向Twitter挑战,推出包括主题标签(Hashtag)和主题标签搜寻,并据此推出热门主题区块“趋势话题”(Trending Topics);2013年年底Facebook修改了News Feed的算法以“提升用户体验”,实际目标是同老牌竞争对手如Google News、以及新生初创网站如Upworthy等展开竞争,这一举措使得擅长以短视频制造病毒传播的社交新闻聚合媒体Upworthy接连两个月损失近一半流量。[13]2014年4月24日,Facebook推出面向新闻记者的最新服务FB Newswire;2015年5月,Facebook上线Instant Articles(IA)功能,IA可以让新闻媒体预先上传文章到Facebook的系统中,News Feed快速将内容推送给用户,增强浏览速度和流畅度,并可以针对个别文章段落进行回应和点赞。而如果文章特别受欢迎,在Facebook上的普及率将大幅提高。
  News Feed是Facebook新闻推送业务的核心项目,之前News Feed的算法经历过三个主要阶段[14]:
  (一)第一阶段:边际排名算法(EdgeRank Algorithm)
  从2006年9月开始,Facebook采用边际排名算法(EdgeRank Algorithm)。[15]2010年4月在Facebook的F8 会议上,该算法的初始工程师Ruchi Sanghvi和Ari Steinberg对其进行了说明:每个出现在你新闻源里的内容被称作Object,与Object互动行为被称作一个Edge,每一个Edge有3个至关重要的组成要素,分别是:
  1.U:亲密程度(Affinity Score):指阅读者(Viewing User)和条目创造者(Item’s Creator)之间的互动,互动越多,分值越高;
  2.W:边类权重(Edge Weight):由算法工程师设定各种互动类型的权重值,如贴文、评论、点赞、加标签等;
  3.D:时间衰变(Time Decay):一个Edge经历的时间越长,它的权重就越低。
  EdgeRank的公式相当直接。对Edge产生的影响的因素叠加在一起,则会增加Edge的分数,然后就产生了EdgeRank。分数越高,你的内容就更容易出现在用户的News Feed里面。
  EdgeRank=∑ue·we·de
  e∈edges(二)第二阶段:机器学习与算法更新
  2011年之后News Feed的排序算法全面转向了机器学习,用优化理论来决定每个因素的权重。News Feed排名工程部经理Lars Backstrom表示,该系统约有10万个独立项的权衡因素。除了最原始的3个EdgeRank要素之外,新加入的包括:
  1.关系设定:用户可以针对朋友或者已经点赞的页面选择“亲密程度”或者是否“接收通知”;
  2.贴文种类:用户是喜欢图片、文字还是链接?动态消息算法会考虑每个用户倾向喜欢的贴文种类,并提高该种类的出现概率;
  3.隐藏贴文/检举粉丝专页:通过与用户的使用习惯相关联,得出用户对于某种类型贴文的喜好程度以决定其出现的概率,以及对于新近隐藏的贴文加大权重保证推送的净正(Net Positive)状态;
  4.点击广告和观看其它内容的时间轴:虽然目前消息算法与广告展示的算法是完全分开的,但用户与广告的互动模式却可以影响新闻源的展示内容;
  5.装置与科技:算法还会考虑用户使用的终端类型,用户网络连接速度等以决定展示内容,比如给网速较慢的用户多推送文字;
  6.故事颠簸(Story Bumping)和最近行动者(Last Actor)[16]:2013年8月Facebook宣布了两项针对News Feed的算法更新:“故事颠簸”可以让你在动态消息中没看到已经沉没的消息再次推上来;而“最近行动者”是将用户最近的50个互动赋予更多权重。
  图片来源:https://www.singlegrain.com/facebook-news-feed/facebooks-news-feed-algorithm/
  (三)第三阶段:协同过滤机制
  在强化机器学习的同时,News Feed团队重新考虑了人和算法之间的关系,他们提出要“把用户真正最关心的内容找出来”,建立“有意义的体验”,而不仅仅是“提高点击率”。为此,他们设置了一套协同过滤机制。[17]每周二,20多名算法工程师和数据科学家都会来到Facebook的加州总部工作室,他们会对数以亿万的点赞、评论和点击进行重估,使之更为有用;在田纳西州的诺克斯维尔,30名合同工坐在房间的电脑前,日以继夜地查看他们的News Feed推送是否与他们的个人喜好相匹配,而他们的评估,连同全美其他700多名评阅者的意见,都会反馈给Facebook的加州总部,供新的算法来参考调整新闻推送的精度和准度。
  如果同Google News的算法要素做一个简单的比较,我们可以发现:Google的排序算法非常重视分类。但是这种结构化的搜索排序算法和Facebook的算法逻辑完全不同,后者强调的是对象之间的关系亲疏以及互动程度,与某一领域的主题内容以及优质程度关系不大。(表1 表1见本期第43页)搜索引擎优化专家约翰·施哈塔(John Shehata)指出,在Google的搜索逻辑中,“分类权威是非常重要的排序因素。如果你持续就某一专门主题写作优质的故事,你就会有点击率和流量,你就会在某一分类排序中获得更好的名次”。[18]与Google依靠强大技术主导服务不同,Facebook采用的是实用的技术以实现产品的快速迭代并产生良好的用户体验。一项通过对Facebook News Feed自身的专利、新闻发布、向证券交易委员会提供的文件内容所做的文本分析也发现,朋友关系、明确的用户兴趣、用户预先参与、含蓄的用户偏好、贴文时间、平台优先级、页面关系、用户负面偏好以及页面内容,是驱动Facebook上动态消息的算法核心。[19]而朋友关系,对于其他所有内容的选择有着整体性的影响。
  此次使Facebook身陷“偏见门”的“趋势话题”(Trending Topics),主要是放在News Feed栏目的右上角,为用户自然搜索(Organic Search)做参考。虽然有证据证明这一设置确实增加了用户的相关自然搜索,但是“时间轴”这样的社交架构的作用更加重要,因为如果已经过去很长时间了,用户很少会去主动搜索相关主题。
  (四)最新调整:“3F原则”与News Feed新闻价值观
  2016年6月29日,深陷“偏见门”的Facebook再次改进了News Feed的算法,提出:虽然这只是一个小小的改动:你将看到更多基于真人的推送,而类似于群组、媒体、品牌或其他来源的信息都会被弱化。更重要的是,配合这次改动,Facebook有史以来第一次发布了对于自身算法的理念说明:News Feed新闻价值观(News Feed Values)。[21]如果用一句话来概括,那就是所谓的“3F原则”(Friends and Family First):友谊家庭大过天。这一价值观的主要内容包括:
  1.社交优先:我们的首要任务是确保你能关联到一切你想关联的人、位置和事物——从你在Facebook上的好友开始。
  2.“有用的信息”是关键:人们希望从News Feed中获取对自身有意义的信息,而我们一直在学习和辨别哪些信息对哪些用户是有用的。
  3.不要忘记娱乐:对一些人来说,他们热衷于追星;而另一些人则喜欢看视频直播以及与他们的朋友分享有趣的照片。
  4.推崇多元观点:我们并不喜欢特定的新闻源或观点。我们的目标是传播在Facebook上人们最想看到的不同类型的新闻。我们这么做不单单是认为这种做法是正确的,还因为这么做在商业上对我们有好处。
  5.真实性很重要:我们努力了解人们究竟需要哪些新闻,这样我们就可以多推送给他们。同时,我们也试图了解哪些类新闻会带来误读或者不客观,我们会减少类似的推送。
  纽约大学新闻学教授杰伊·罗森(Jay Rosen)对此评论说,这是新闻价值的一个“新开始”:你的社交网络成了第一位的,而不是公共世界。[22]Facebook倡导:“选择什么样的新闻,我们是让‘用户的选择’这只看不见的手来做决定。”而用户需要做的,就是要帮助Facebook“更好地了解你的意图是什么,你想要什么样的过滤?你希望什么样的玩家一起来玩”?
  
三、算法背后的社会风险
  最近一次的算法改进,使Facebook在以往协同过滤的机制基础上,进一步强调了用户对于最终内容的选择权。如果说之前在社交媒体中的信息生产方式还存在着产销一体(Prosume),现在则变成了“选择即生产”(SelectPro,Select + Produce)。相比以往经由传统媒体把关的“精英筛选”,该举措实际上二次建构了受众的信息接触环境,媒体建构现实世界,平台建构个人世界。这样一种机制的核心是建立在受众参与的基础上,算法的改进只是工具性地将这一机制更加完善地予以执行。
  同时,这就意味着用户需要更深地卷入到社交媒体的使用当中,“用得越多,越是你想要的”。Facebook也不再讳言自身的价值与利益,新闻的“真实性”取决于用户的“需要”,“客观”的外部化标准让位于具体情境下平台与用户的共谋与互建。那么问题是,这样的信息或者新闻生产方式潜藏着怎样的社会风险?
  (一)内循环的“算法审查”易形成“自生审查”
  2014年,北卡罗莱纳大学情报与图书馆学院的助理教授泽纳普·图菲克奇(Zeynep Tufekci)在一项研究中发现,Facebook的新闻推送算法十分重视用户的意见和共享,而这种基于点赞和评论的算法会淹没掉像“弗格森案” [23]这样的重要新闻,原因可能是因为该案件并不是很受欢迎,也不好评论。她将这一现象称为Facebook对于新闻信息的“算法审查”(Algorithmic Censorship)。后来这一“螺旋下降的沉默算法”最终被打破,是由于后来在Twitter平台上很多人爆发出了强烈的愤怒和谴责,最终才形成了全国性的新闻事件。[24]之所以会形成这样的算法审查,这同Facebook的新闻源推送算法逻辑密切相关。这种算法的设计标准在于,无论是欢天喜地还是暴怒生气,不管是阴谋恶作剧还是晒娃自拍,重要的是该新闻是否可被规模化地讨论。如果没有“人气”,哪怕是一条非常重要的信息,也有可能不会出现在特定用户的界面上,由此就形成了用户的“自生审查”[25]循环。
  (二)内容与数量上的协同过滤或导致信息操控
  从Facebook的算法机制中可以看出,编辑团队实际上已经作为协同过滤机制的一部分,内嵌在与原始算法、机器学习等技术因素系统当中。所以当受众发现Facebook的“趋势话题”是由新闻团队操作的,在算法浮现的基础上,甚至只选择了其中极少一部分内容,加上人为注入的话题,再编辑打扮成新闻的样子,因此感到非常愤怒。
  随之而来的怀疑就在于:这些人是谁?他们有什么资格?谁赋予了他们权力?他们的选择有哪些倾向性?哪些是被注入的内容?那些没有被显示的内容究竟是些什么,是否更为重要?等等。实际上,这一系列质疑实际上就集中在:Facebook是否有“资格”决定公众能够阅读到什么新闻?
  与Twitter不同,Facebook选择呈现的是“被鉴别过的新闻话题”(identified topics),而不是一个简单的“#”。虽然该板块的负责人汤姆·斯托克(Tom Stocky)声明,Facebook内部有政策“确保出现在趋势清单上的内容是一致且中立的”,[26]但这似乎仍然比较缺乏说服力。此外,当用户登录Facebook的时候,页面本来可以显示1500条新闻源,但是现在只显示其中的300条。[27]在今年6月底的这次算法改进中,Facebook表示来自朋友的优先推送会导致新闻机构的推荐流量下降。Facebook的产品经理亚当斯·莫塞利(Adams Mosseri)承认,这是一个“小但却很显著的”(small but noticeable)变化。[28]而且通过改变算法,Facebook勾勒出了新闻机构未来在社交网络中发展的初步路线图:在社交网络中流动的信息就是用户希望了解的信息。由此可见,虽然Facebook并不一定“承认”自己是一家媒体,但在实际的业务中,对于用户的信息流操控确实存在逐渐增强的“定向引流”情况,并且从内容到数量,Facebook都实现了对于用户信息接触的实质性导引。
  (三)“平台偏向”经由传播效果会影响受众态度
  “偏见门”事件爆出之后,5月18日扎克伯格邀请了16位保守派思想人士来到Facebook位于硅谷的总部进行会谈。[29]来自右派保守阵营的意见普遍认为,必须确保尊重所有类型的观点,并使得Facebook继续作为思想自由的文化市场。会谈之后,扎克伯格也在Facebook再次重申了对多元文化思想的承诺:“我知道很多保守派人士不相信我们的平台表面上不带政治偏见的内容,我想亲自听听他们的关切,并对我们如何才能建立起信任开诚布公。我会尽我所能确保我们的团队坚持我们产品的完整性。” [30]今年4月的F8会议上,扎克伯格曾发表演讲含蓄地抨击共和党提名总统候选人唐纳德·特朗普(Donald J. Trump)在移民问题上的“筑墙”态度,并声称同这一心态的斗争是未来10年公司“与世界连接”路线图的一部分。[31]4月中旬,Gizmodo曾经刊发过一篇《Facebook称它不会试图影响人们选举》的文章,起因在于有员工问扎克伯格:“我们在阻止唐纳德·特朗普赢得2017年大选的问题上应当负有怎样的责任?” [32]Facebook随后发表回复:“投票是民主的核心价值,我们认为支持公民参与是我们能为社会做出的重要贡献。我们鼓励任何及所有候选人、团体和选民在选举辩论的问题时使用我们的平台,分享他们的观点。我们作为一个公司是中立的——我们没有,也不会使用我们的产品,试图影响人们投票的方式。”
  根据美国Opensecrets官网的统计数据显示,2014年Facebook接受美国参众两院捐资的情况如下:众议院435席有84席捐款,其中民主党占47席,共和党占37席,共和党捐款总数(15.805万美元)略高于民主党(14.07万美元);参议员100席中有53席捐款,其中民主党占27席,共和党占26席,但是民主党捐款总数(14.635万美元)是共和党(9.314万美元)的1.57倍。单笔捐款前3位都来自民主党,前10位有7位来自民主党。[33]虽然扎克伯格本人曾经向共和党候选人卢比奥有过一次捐款,但包括Facebook在内基本上整个硅谷的氛围都比较中间偏左,这可以从近3次总统大选中硅谷最大的3家公司给两党捐款的情况看出。(表2 表2见本期第46页)
  那么这种政治倾向到底会不会带到新闻来源的计算与编辑当中去?实际上在Facebook的页面上,特朗普的提及率和曝光率都大大超过其他候选人,[35]平台公司本身的政治倾向并不能作为其“新闻来源偏见”论断的充分必要条件,甚至在16名保守派思想人士的阵营,对于该问题都持有不同认知,比如专栏作家、CNN评论员SE·卡普(SE Cupp)就指责在这次会见中保守派过分关注自身利益而罔顾事实证据,“我听到了抱怨,听到了观点,但是没有一个人分享不当行为的证据”,[36] “整个Facebook的会见就像‘塞勒姆审巫案’(Salem Witch Trial)。” [37]但如果将这个问题同Facebook令人震惊传播效果相关联,则很难说这些看似“微不足道”的偏向会不会对于民主选举或者民主制度带来影响。另一个让人不得不有所联想的事实是,在此次“偏见门”的灭火工作中,Facebook已经决定将来让其员工参加关于政治偏见的培训(Political Bias Training)。[38]2012年,据称是第一篇系统研究“线上世界如何显著影响线下真实世界的研究” [39]在Nature上发表,论文显示,在Facebook上的一项社会实验显著提高了2010年美国选民的投票率。[40]2014年Facebook自己的一项研究表明它的算法可以操控人的情绪,“在Facebook平台上,一些很小的影响会形成大规模的聚合后果”,[41]甚至可以显著影响投票选举。但也有研究对此持保留意见。2015年发表在Science上的一篇重要论文比对了Facebook用户的两种信息接触:朋友间分享新闻和观点和通过Facebook的算法推荐获取信息,结果发现Facebook上的回音室效应(Echo Chamber)并非像大家想象的那样让人们与世隔绝,个人选择具有很强的作用。[42]但同时,数据科学家依然提醒,这项研究的重要性是基于一定数据范畴和体量的,他们依然注意到了一些显著的局限性。今年1月皮尤研究中心的一份研究报告发现,自由派民主党党员更加会从Facebook的平台上获取选举信息。相比共和党只有50%的网络一代从社交媒体上获悉选举信息,民主党有四分之三的年轻人把社交媒体作为日常的信息来源。[43]通过传播的显著效果,进一步改变选民构成,将散布性支持(diffuse support)变成为特定支持(specific support)进而改变政治结构,[44]这样的作用在美国大选年的当下,无疑非常敏感。
  
四、社交媒体将改变传统新闻价值观?
  对于一个仍然处于高速成长期的公司来说,Facebook的目标是最大程度地保证用户黏度(参与度、活跃度等)和网站广告友好。有观点认为“偏见门”有点小题大做了,“趋势话题”只是一个非常小的板块,用户也不怎么经常关注,而其他社交媒体公司也有类似的业务。比如2015年秋天,Twitter推出了跨平台的Moment服务,可以在手机和网页上查看最新的值得关注的推文和故事,而这个服务是由一个专业的记者团队搜集制作的;Snapchat作为一个即时通讯软件,雇佣了前CNN的记者为其制作政治报道。目前他们还没有面临Facebook如此大规模的对编辑团队和优选内容的质疑。但问题是,作为Facebook这样一个对于用户新闻接触具有实质性意义的媒体平台,它究竟应当扮演何种社会角色,担负何种社会责任?
  舒德森在《为什么民主需要不可爱的新闻界》一书中罗列了“新闻服务于民主的七项主要功能”,除去通常的信息提供、调查报道、分析评论、社会同情、公共论坛、社会动员之外,舒德森并不讳言在一个民主体制的国家中,新闻界对代议制民主制度需要的宣传和维护,甚至是要推进和提升这种“自由的民主”,而不是“多数主义者的民主”或者相反。[45]而对于互联网,舒德森只看到了“公民新闻业”的可能,并对此抱有适度的乐观。但问题是,当前在社交媒体中传播的信息首先并非一定是为“民主制度”所服务而进行的内容生产,其次互联网对于新闻业的影响早已超越了“多样的内容提供”范畴,这是一种完全不同于过去新闻生产、分发与消费的方式,“时新性、真实性、事实与意见、专业与业余、公共与私人等传统新闻生产所依赖并强化的固有边界” [46]被整体性地模糊与消解,“有用”、“有意义”均落实到非常具体与个体的需求上,且这种需求不一定必然与整个国家与社会的走向趋同。
  在《纽约时报》的4篇评论中,《喜欢或不喜欢,Facebook现在是一家媒体公司》的观点很明确:随着越来越多的科技公司转型成为媒体,他们需要深入思考其对于公众的责任。[47]2010年时任康奈尔大学传播系副教授的塔尔顿·吉莱斯皮(Tarleton Gillespie)在《平台的政治》一文中曾鲜明地指出:平台比他们自愿承认的更像传统媒体。[48]他们寻求可持续的商业模式,起身反对传统规制,点燃争论话题。当他们变得足够强大,不仅可以吸引他们的用户,而且可以在公共事务中施压。随着影响力越来越大,对于内容的选择性呈现、组织化结构、商业模式、议程框架、价值宗旨、技术架构等等,都将实质性地干预到公共话题的轮廓。
  但是有一点也许是这些评论没有仔细考虑到的,那就是Facebook是一家诞生在“第三次浪潮”时期的媒体公司,而“第三次浪潮”同“第二次浪潮”最为本质的区别在于,前者更为关注的是个性化的体验,是一种小众行为,技术是保证对这些小众行为可以提供“规模化定制”的可能;而大规模的从众和趋同是第二次浪潮的特征。作为一家从事社会网络化服务(Social Networking Service,SNS)的公司,社会网络化就是分享化,社会网络化服务的实际意思就是分享服务。[49]从这个角度来说,Facebook对于自身信息推送的算法设计是紧扣自身SNS定位的,如果信息没有分享,就不是分享的社会化,就不是Facebook这种基于社交关系的信息分享机制。与此形成鲜明比对的恰恰是Google News这种重分类的新闻过滤机制。因此从某种程度来说,用户看到自己想看到的新闻,这在使用Facebook的时候应该是心知肚明的。
  此外,就传播效果而言,曾以研究媒介在数字环境中的本质与角色变化获得2014年度美国经济学会克拉克奖(John Bates Clark Medal)的获奖者,现任哈佛大学经济系教授马修·根茨科(Matthew Gentzkow)等人的研究表明,尽管他们也发现了类似在线新闻消费分隔(segregation of online news consumption)的现象,但这远远比不上日常生活中家庭与社会网络的隔离。换句话说,我们更多被我们居住空间中的意识形态隔离,而不是新闻网站。[50]除去相互之间的攻讦,此次“偏见门”也使得媒体与学院派都在反思这样一个问题:我们是否需要某种一成不变的新闻价值观?不久前美国报业协会在坦普尔大学举办了“联系与多样化媒体峰会”,其间现任《今日美国》网络新闻业务的副总裁米泽尔·斯图尔特(Mizell Stewart)就提到:当所有事物都跟随着时代和社会在进化,为什么就新闻的价值观依然陈旧?北得克萨斯大学新闻学院教授梅雷迪斯·克拉克(Meredith D. Clark)对这个问题深有感触:“主流媒体”和“传统新闻”都只是一个时代的产物。基本的新闻价值观念依然会存在:真实、客观、准确、及时等是无可替代的。但对于媒体机构来说,基于用户地位的反转,有些新闻价值观就需要再讨论了:什么是真正对于用户“有用”的信息?对于信息的传播需要有怎样的设计?是要一个合格的产品,还是宁缺毋滥做出一个卓越的产品?BBC新闻互动制片人谢法利·库卡尼(Shefali S. Kulkarni)还提出,这也是她为什么喜欢在Facebook的相关组群上分享BBC内容的原因:坦率地讲,我们从这些组群中获得的评论要比我们在自己网站上的评论有价值得多。[51]
  结语:探索算法的“可信任原则”实践
  6月9日下午,一则来自YouTube上知名播客Sourcefed的视频迅速传播,短短不到两天时间内就有72.3万多点击量。视频显示Google搜索的自动提示输入功能涉嫌人为操纵结果,会屏蔽很多关于希拉里的负面消息。[52]但不久该视频的内容被多个消息源证伪,事实上Google的自动提示输入算法要比Yahoo!和Bing复杂得多,可以智能屏蔽不良搜索词,并且该搜索只针对已经发生的事情,不针对预期或预测事件。[53]虽然该事件迅速得以澄清,但从另一个角度来说,与虚拟世界之间进行的互动对于用户现实世界的影响与建构已经成为焦虑和恐慌的对象。而国内在诸如“魏则西事件”中暴露出的人为因素干预搜索结果的问题,同样引发道德伦理争议。虽然国内一些平台型媒体已经开始对于内容推送的“社交化”进行反思并给出一定的应对方案,但是诸如精确关键词、双标题、号外等方法都只是在“关联”流程部分的技术处理,依然没有触及底层架构与算法。[54]2013年,84岁的哈贝马斯出版《技术官僚统治的漩涡》一书,直指数据资本主义对于民主政治的威胁。[55]而以技术、算法为核心的“大数据”,认为其可以“提供更高级的智力和知识,有着真理、客观性和精确性光环” [56]的“神话”也一次次被打破。或许站在这样一个关口,一个很实际的问题在于,我们既不是要将技术的迷思同传统的信念理念对接起来,也不是要完全颠覆传统,而是要解决“技术与社会生态的互动使得技术的发展常常有一些环境的、社会的和人类的后果,这些后果已经超出了技术设备与实践的即时目的”。[57]而如果无法将这个问题思考清楚,我们将会从一个技术偏向跳入另一个算法操控,技术非但没有在公共空间和政治公共性当中开辟出新的气象,反而会在新型资本主义生产体系中成长为新的不平等的权力。
  《Facebook效应》的作者大卫·科特帕特里克最近表示:“作为全球最大的新闻源,Facebook现在处于一片没有海图的水域。他们没有现成的指南来自我管理并管理所处社区的期望。”波因特传媒(Poynter Media)的伦理学家凯利·麦克布莱德(Kelly McBride)指出:“对于Facebook来说,我认为这是一个转折点,因为他们需要问自己一个问题,作为一个公司他们的职责是什么……比如可靠的消息来源。” [58]而作为目前最权威的由哥伦比亚数据新闻研究中心在2014年发布的《算法可信度报告》对于“算法的可信任原则”给出了这样的说明:“算法的可信任原则是指通过对算法的透明度测试,以识别商业秘密,发现操控后果并超越复杂问题的认知天花板。” [59]该报告的作者认为,为了实现这一原则,需要记者与算法一起,在信息行动自由联邦(The Federal Freedom of Information Act,FOIA)的权力赋予下通过逆向工程技术(Reverse Engineering)[60]的形式有效地结合在一起。可见,这一原则实际上是一种联合了多种社会力量对于算法的监督机制,既包括理论也包括实践,通过法规、技术、机构和有效率的个体,有效地保证信息透明度。随着时间的推移,足够的专业知识会逐渐积累起来,通过引发互联网企业的关注并与之合作,以此确立对于公众有用的信息透明度算法标准。
  或许对于Facebook来说,接下来的两个方向,任何一方都无法弃舍:其一是持续强化技术标准与能力,将以算法为驱动力的动态新闻推送坚持到底,突出强调自身的中立原则,倡导价值无涉;其二则是从最为擅长的社交入手,进一步渗透进日常生活,强调新闻信息是来自于用户的社交网络,退出或弱化新闻推送平台自身的偏向引导关系。在这样的理念下,自上而下的分发与自下而上的聚合同等重要,而对Facebook来说,这一策略最大的便利在于将信源的可信任问题移交给了上一层过滤单位,而Facebook则在信息过剩的海洋中牢牢把握住了跟用户最接近的触点。■
  
注释:
①David Carr, A Platform and Blogging Tool, Medium Charms Writershttp://www.nytimes.com/2014/05/26/business/media/a-platform-and-blogging-tool-medium-charms-writers.html?hpw&rref=technologyMay 252014.
②Pew Research Center, May2016“News Use Across Social Media Platforms 2016”.
③http://www.internetlivestats.com/watch/facebook-users/
④http://newsroom.fb.com/company-info/
⑤Farhad Manjoo, Facebook Use Polarizing? Site Begs to Differ, http://mobile.nytimes.com/2015/05/08/technology/facebook-study-disputes-theory-of-political-polarization-among-users.html?smprod=nytcore-iphone&smid=nytcore-iphone-share&from=singlemessage&isappinstalled=0&referer=May 72015.
⑥周葆华:《从“后台”到“前台”:新媒体技术环境下新闻业的“可视化”》,《传播与社会学刊》2013年总第25期
⑦Michael NunezWant to Know What Facebook Really Thinks of Journalists? Here’s What Happened When It Hired Some.http://gizmodo.com/want-to-know-what-facebook-really-thinks-of-journalists-17739161175/03/16 1:09pm.
⑧Michael NunezFormer Facebook Workers: We Routinely Suppressed Conservative News, http://gizmodo.com/former-facebook-workers-we-routinely-suppressed-conser-17754610065/09/16 9:10am.
⑨Nick Corasaniti and Mike IsaacSenator Demands Answers From Facebook on Claims of ‘Trending’ List Bias, www.nytimes.com/2016/05/11/.../facebook-thune-conservative.htmlMay 102016.
⑩Is Facebook Saving Journalism or Ruining It? http://www.nytimes.com/roomfordebate/2016/05/17/is-facebook-saving-journalism-or-ruining-itMay 172016.
[11]Christopher Mims, Fears of Facebook Bias Seem to Be Overblownhttp://www.wsj.com/articles/fears-of-facebook-bias-seem-to-be-overblown-1463371261May 162016.
[12]Diakopoulos, N. (2014). Algorithmic accountability reporting: On the investigation of black boxes.Tow Center for Digital Journalism, Columbia University.
[13]Megan McArdleFacebook Puts a Downer on Upworthy,http://www.bloomberg.com/view/articles/2014-02-11/facebook-puts-a-downer-on-upworthyFeb 112014.
[14]Facebook Algorithm Change Historyhttp://wallaroomedia.com/facebook-newsfeed-algorithm-change-history/
[15]Jason KincaidEdgeRank: The Secret Sauce That Makes Facebook’s News Feed Tick, http://techcrunch.com/2010/04/22/facebook-edgerank/Apr 222010.
[16]Justin Lafferty, Facebook Announces ‘Story Bumping’ And Other Small Changes To News Feed Algorithmhttp://www.adweek.com/socialtimes/facebook-announces-story-bumping-and-other-small-changes-to-news-feed-algorithm/426312Aug 62013.
[17]Victor LuckersonHere’s How Facebook’s News Feed Actually Workshttp://time.com/3950525/facebook-news-feed-algorithm/July 92015.
[18]Google Algorithm Change Historyhttps://moz.com/google-algorithm-changeupdate to May 122016.
[19]DeVitoM. A. (2016). From Editors to Algorithms: A values-based approach to understanding story selection in the Facebook news feed. Digital Journalism, 1-21.
[20]Top 10 Most Important Google News Ranking Factorshttp://googlenewsrankingfactors.com/top-10-most-important-google-news-ranking-factors/
[21]Adam Mosseri. Building a Better News Feed for Youhttp://newsroom.fb.com/news/2016/06/building-a-better-news-feed-for-you/June 292016.
[22]Jay Rosen. Facebook backs off on the View from Nowherehttp://pressthink.org/2016/06/facebook-backs-off-a-bit-from-the-view-from-nowhere/June 292016.
[23]2014年8月9日,美国密苏里州圣路易斯县弗格森的18岁非裔美国青年迈克尔·布朗(Michael Brown)在未携带武器的情况下,遭到28岁的白人警员达伦·威尔逊(Darren Wilson)射杀。布朗并未携带武器,且没有任何犯罪记录,在被射杀前他仅与警员接触了不到3分钟。该事件引发连续多日的抗议行动,甚至出现暴动,警方派出大量警员、装甲车并发射催泪瓦斯和橡皮子弹试图平息骚乱。后来FBI介入调查,美国总统贝拉克·奥巴马向布朗的家人发出慰问,并要求美国司法部进行调查。11月24日密苏里州大陪审团决定不起诉涉事警察达伦·威尔逊,数百名聚在弗格森市警察局门前等待处理结果的当地民众表示不满,之后再次引发骚乱。
[24]Tufekci, Z. (2014). What happens to# Ferguson affects Ferguson: Net neutrality, algorithmic filtering and Ferguson.Message, August,14.
[25]PetersonC. (2016). 5 Case Study: “Bury until They Change Their Ways”—The Digg Patriots and/as User-Generated Censorship.Civic Media: Technology, Design, Practice, 125.
[26]https://www.facebook.com/tstocky/posts/10100853082337958.
[27]Lars BackstromNews Feed FYI: A Window into News Feed, https://m.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed?from=singlemessage&isappinstalled=0August 62013.
[28]Kurt Wagner. Facebook is cutting traffic to publishers in favor of user-generated contenthttp://www.recode.net/2016/6/29/12053800/facebook-news-feed-algorithm-change-publisher-traffic, June 292016.
[29]Brian StelterFacebook’s Mark Zuckerberg meets with conservative leadershttp://money.cnn.com/2016/05/18/media/facebook-conservative-leaders-meeting/index.html?from=singlemessage&isappinstalled=1May 192016: 8:03 AM ET.
[30]https://www.facebook.com/photo.php?fbid=10102840575485751&set=a.529237706231.2034669.4&type=3&theater
[31]Nick StattMark Zuckerberg attacks Donald Trump in speech about Facebook’s future, http://www.theverge.com/2016/4/12/11415060/mark-zuckerberg-trump-quote-f8-conference-2016?from=singlemessage&isappinstalled=0April 122016 01:15 pm.
[32]Michael NunezFacebook Says it doesn’t Try to Influence How People Vote, http://gizmodo.com/facebook-says-it-doesnt-try-to-influence-how-people-vot-1771276946?rev=14607551796514/15/16 5:19pm.
[33]https://www.opensecrets.org/orgs/toprecips.php?id=D000033563&type=P&sort=A&cycle=2014&from=singlemessage&isappinstalled=0
[34]http://people.pedaily.cn/201605/20160519397435.shtml
[35]Zeynep TufekciThe Real Bias Built In at Facebook, http://mobile.nytimes.com/2016/05/19/opinion/the-real-bias-built-in-at-facebook.html?_r=0&referer=&from=singlemessage&isappinstalled=1May192016.
[36]David McCabe Ed.Glenn Beck: Facebook meeting ‘felt like the Salem Witch Trial’http://thehill.com/policy/technology/280548-glenn-beck-facebook-meeting-felt-like-the-salem-witch-trial?from=singlemessage&isappinstalled=1 - 05/19/16 12:51 PM.
[37]塞勒姆审巫案:1692年,美国马萨诸塞州塞勒姆一个牧师的女儿突然得了一种怪病,随后与她平素形影不离的7个女孩相继出现了同样的症状。当时人们普遍认为,让孩子们得了怪病的真正原因,是村里的黑人女奴提图芭和另一个女乞丐,还有一个孤僻的从来不去教堂的老妇人。人们对这3名女人严刑逼供,“女巫”和“巫师”的数量也一步步增加,先后有20多人死于这起冤案中,另有200多人被逮捕或监禁。1992年,马萨诸塞州议会通过决议,宣布为所有受害者恢复名誉。后世用“塞勒姆审巫案”比喻对于无辜者的迫害。一位在比利佛的部长约翰·黑尔在他的书《对于巫审案的自然调查》中明确承认:“那是黑暗的那一天,酷刑和折磨的悲叹,和前总统的权力,使我们走在迷雾中,并不能看到我们的前路。”
[38]Brian StelterFacebook’s latest News Feed change may hurt publishers, https://www.google.com.hk/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#newwindow=1&safe=strict&q=adam+mosseri+news+feed+values+cnn+money, June 292016.
[39]http://www.nature.com/news/facebook-experiment-boosts-us-voter-turnout-1.11401?from=singlemessage&isappinstalled=0#/b1
[40]CorbynZ. (2012). Facebook experiment boosts US voter turnout.?Nature News.
[41]KramerA. D.Guillory, J. E.& HancockJ. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences,?111(24)8788-8790.
[42]BakshyE.MessingS.& Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science348(6239)1130-1132.
[43]Michael BarthelLiberal Democrats most likely to have learned about election from Facebook, http://www.pewresearch.org/fact-tank/2016/05/12/liberal-democrats-most-likely-to-have-learned-about-election-from-facebook/?utm_source=Pew+Research+Center&utm_campaign=1173200409-Weekly_May_12_20165_12_2016&utm_medium=email&utm_term=0_3e953b9b70-1173200409-400178253&from=singlemessage&isappinstalled=1May 122016.
[44][美]戴维·伊斯顿:《政治生活中的系统分析》,人民出版社2012年版
[45]SchudsonM. (2008).Why democracies need an unlovable press. Polity.
[46]谢静:《微信新闻:一个交往生成观的分析》,《新闻与传播研究》2016年第4期
[47]Robyn Caplan, Like it or NotFacebook is now a Media Companyhttp://www.nytimes.com/roomfordebate/2016/05/17/is-facebook-saving-journalism-or-ruining-it/like-it-or-not-facebook-is-now-a-media-company, May 1720166:16 PM.
[48]Gillespie, T. (2010). The politics of ‘platforms’.New Media & Society12(3)347-364.
[49]姜奇平:《理解社会网络化》,《互联网周刊》2011年第2期
[50]GentzkowM.& ShapiroJ. M. (2010).Ideological segregation online and offline(No. w15916). National Bureau of Economic Research.
[51]Meredith D. ClarkIt’s time for a new set of news values. Here’s where we should starthttp://www.poynter.org/2016/its-time-for-a-new-set-of-news-values-heres-where-we-should-start/418952/June 272016.
[52]https://www.youtube.com/watch?v=PFxFRqNmXKg
[53]David GoldmanThe truth about the Hillary Clinton Google conspiracy theory, http://money.cnn.com/2016/06/10/technology/hillary-clinton-google-search-results/June 102016: 4:36; Rhea Drysdale, https://medium.com/@rhea/hillary-clintons-search-results-manipulated-by-sourcefed-not-google-3dd9a5c68ca1#.vecclgbz3June 112016.
[54]吴达:《内容的未来,走出social》,新榜“内容创业2016年中巡礼”主题演讲,2016年7月23日
[55]曹卫东:《开放社会及其数据敌人》,《读书》2014年第11期
[56]BoydD.& Crawford, K. (2012). Critical questions for big data: Provocations for a cultural, technologicaland scholarly phenomenon. Informationcommunication & society15(5)662-679.
[57]Kranzberg, M. (1986). Technology and History:” Kranzberg’s Laws”.Technology and culture?27(3)544-560.
[58]Brian StelterFacebook’s Mark Zuckerberg meets with conservative leadershttp://money.cnn.com/2016/05/18/media/facebook-conservative-leaders-meeting/index.html?from=singlemessage&isappinstalled=1May 192016: 8:03 AM ET.
[59]Diakopoulos, N. (2014). Algorithmic accountability reporting: On the investigation of black boxes.Tow Center for Digital Journalism, Columbia University.
[60]所谓逆向工程技术,是一套突破算法黑盒的理论与实践。算法通常被描述为黑盒(Black Box),其复杂性和技术的不透明性使得它们内部的运作机制被隐藏和混淆。但与此同时,算法必须始终有一个输入和输出,黑盒实际上有两个小开口。我们可以利用这些输入和输出的优势逆向演绎里面是什么回事。如果有足够多的输入方式和输出结果,就可以开始拼凑一个理论,或至少一个故事来演绎该算法是如何工作的,包括每个输入到输出,以及中间的逻辑关系。开始的时候,我们并不一定需要完全了解该算法的代码才可以开始逆向工程。
  
方师师/上海社会科学院新闻研究所助理研究员。本文是2014年度教育部人文社会科学研究青年基金(项目号:14YJC860005)、2015年度国家社科基金青年项目(15CXW002)阶段性成果;本文受到香港城市大学媒体与传播系和传播研究中心2015年度“中国大陆新闻传播青年学者访问项目”、复旦大学国家网络能力建设协同创新中心、复旦发展研究院传播与国家治理研究中心支持。
  
  
  
  
  
主管单位: 上海报业集团
主办单位: 上海报业集团      上海社会科学院新闻研究所