自动化判断?算法判断、新闻知识与新闻专业主义
■马特·卡尔森(Matt Carlson)著 张建中编译
导读:近期,算法新闻业(Algorithmic Journalism)在业界实践和学界讨论中均出现了拐点:在实践中,国内的今日头条、国外的脸书均开始大批招聘人工编辑,参与内容审核。这较之此前此类科技公司对于自身定位、技术优势的判断,无疑是一个在技术方向和组织架构方面的巨大转折;而在学术讨论中,越来越多的学者开始走出单纯从技术演化的角度来讨论算法对于新闻业内容生产与流量分发的影响,进而开始关注算法制定与算法过程中的制度性安排。
马特·卡尔森(Matt Carlson)近年来的研究从一定程度上也反映出这样一种转向。他最为著名的三篇论文共同组成了其“算法新闻业三部曲”。从2015年讨论自动化新闻对新闻业诸项构成要素的重新定义开始(Carlson,2015),到2016年与尼基·厄舍(Nikki Usher)合作对数字新闻初创公司创立宣言的元新闻话语分析(Carlson & Usher,2016),再到2017年的自动化判断、算法新闻对新闻专业主义的影响(Carlson,2017),内容涉及技术变迁、市场公司、人力资本、新闻生产、专业主义、新闻权威等新闻生产的核心问题,并对前沿且非常具有挑战性的议题展开了较为深入的讨论。
如果将算法看作是一种“人工制品”(Mart,2017),它起初作为一种“解决具体问题的方法”,并非是一件很宏大的事情(Lynch,2017)。在1968年出版的《计算机编程艺术》一书中,计算机科学家唐纳德·努斯(Donald Knuth)虽然不是第一位,但可能是最重要的一位,在应用计算机科学中广泛采用了“算法”这一术语,来指代“非常明确的计算过程,可在有限的步骤中完成,具有正确的结果”。进入21世纪以后,法律学者、公共政策专家、监管机构以及社会科学家借用了“算法”这个概念,但其意义更加广泛且无定型。这个词成了由大公司或者政府运作的“复杂社会技术系统”(complex socio-technical systems)的简写。随之,一个所谓的“算法时代”呼之欲出,其展现的形式包括且不限于:预测性的警务和情报系统,司法判决推荐系统,学生与高校辅导推荐系统,电子商务推荐算法,自动化医疗诊断评估和治疗顾问,算法交易系统,新闻网站的个性化新闻推荐,社交媒体上的假新闻传播,算法驱动的僵尸网络等等。
按照学者康斯坦丁·多尔(Konstantin Dorr)的说法,算法新闻业是一种在算法决策与技术功能下实现的基于结构化数据的自然语言生产(Dorr,2015)。如今这一框架已经被极大地拓展:不管是技术层面的自动化写作、语言翻译、语音转录、面部识别、VR、AR等,还是机制方面的协同过滤、内容审查、平台治理、机构干预、政府规制等,越来越多的影响因素参与并卷入这一过程中,未来算法新闻业将继续“以我们建构它的方式持续建构现实”。
但如何认识这一现象,不同的视角和脉络会给出不同的结论。在《机器人报道》一文中,卡尔森认为,在新兴的以数据为中心的新闻实践中,没有一个像“自动化新闻”这样具有潜在的破坏性:这个术语是指将数据转换成叙事新闻文本的算法过程,没有人为干预,超越最初的编程局限。这预示着新闻内容将远远超过人类记者的生产能力,从而进入更为辽阔的新可能性的领域。
卡尔森一方面关注技术层面的新闻自动化生产,同时也从“话语”的角度观察这样一种现象是如何建构起来的。2016年的论文《作为创新代理的初创企业》,通过对10家数字新闻初创公司的成立宣言进行的元新闻话语(关于新闻的新闻)分析,揭示了这些数字新闻初创企业对于什么是新闻、怎样定义新闻、未来新闻与新闻业的变化趋势等的认知与期望,通过这样的宣言,这些初创企业对新闻与技术之间的界限展开了反思。2016年这篇文章发表之后,其合作者厄舍又在2017年发表了一篇与之相关的文章,对来自美国和欧洲的18家风险投资新闻公司进行了实证调查,发现这些公司以其独特的技术和文化创新——包括算法在内,以“背离”和“复制”传统新闻业的方式对其进行颠覆式创新。(Usher,2017)
在最近的这篇《自动化判断》中,卡尔森更加关注到这种新型新闻样式与传统的新闻专业主义、新闻权威之间的张力关系。卡尔森之前与西斯·列维斯(Seth Lewis)合编过一本非常有名的书,主要就是讨论新闻边界(boundaries of journalism)问题,这也是他的学术关键词之一(Carlson & Lewis,2016)。文章通过研究发现,“自动化判断”在当下被赋予更多的客观性的期望,而这种客观性对记者专业判断的权威性产生了影响。而在最近的一篇学术评论中,卡尔森通过回应其他学者关于“传统的新闻专业主义已无法再适用而今新闻业”的质疑提出,专业主义自有其发展历史轨迹与基本理念达成的根基,而今新闻专业主义或许受到了冲击,但是就其边界而言,它自身的边界或许模糊了,但是它依然为其他社会力量设立了边界(Carlson,2017)。
——方师师 上海社会科学院新闻研究所
【本文提要】新闻判断(journalistic judgment)是传统新闻业一项核心功能,却也困难重重。对客观性规范的优先强调,以及新闻业话语中新闻价值的外在化,并没有为新闻记者主观判断的合法性留下多大空间。在数字新闻时代,由于在自动化新闻生产与传播过程中,算法使用不断增加,让记者“客观-主观”判断的紧张关系变得更加明显。本文认为,算法判断(algorithmic judgment)应该明显区别于记者的专业判断。人的主观性本质上是受到怀疑和需要代替的,而算法本质上是客观和需要执行的,这两种紧密联系的观点,导致算法判断对新闻判断提出了根本性的挑战。以算法判断取代人工判断,会对新闻的形态及其合法性话语产生重大影响。
【关键词】新闻判断 算法判断 新闻知识 新闻专业主义
【中图分类号】G201
引言
本文标题中包含三个术语——判断、知识和专业主义,要解释清楚它们的意义和关系,不是一件容易的事。因此,我们先不从正面直接分析其概念属性,而是通过分析一个文本来切入本文的研究问题。我们选取了计算机科学杂志刊登的文章《基于原文本主题建模的重要新闻选择算法》,①这篇文章的两位作者都是计算机科学家,他们设计了一种算法,这种算法主要是基于文章内容,而不是基于文章元数据(meta-data)或用户信息,为网站首页选择新闻和排序新闻报道。
这种算法干预(algorithmic intervention)也许颇具创意,但是它能够给新闻业带来什么呢?在这篇文章的开头,作者直接回应了这一问题:
在聚合类新闻应用(news aggregator)的首页(比如谷歌新闻或雅虎新闻),读者希望看到重要的新闻报道。对于基于人工编辑的聚合类新闻平台而言,编辑阅读多篇新闻报道并选择重要新闻报道工作量很大且挑战重重。编辑也许会无意中选择毫无价值的新闻报道,甚至有时会依据他们自己的视角来选择新闻。因此,我们需要开发智能算法(intelligent algorithms),帮助聚合类新闻平台快速选择和处理重要的新闻报道。
在此,两位作者提出了明确的问题:面对新闻选择的繁重任务,人类编辑也许会犯错误,也可能会选择“毫无价值”的新闻故事,还可能会通过主观偏好故意控制新闻选择。因此,依赖于人类的新闻选择实践活动是有缺陷的。由于原文缺乏进一步的解释说明,这一论证表面看来是正确的。似乎只要言之成理,人工选择中存在的问题就能将人类的新闻选择权力让渡给算法。
但这个例子的重要性植根于有关人类选择和算法选择在质量方面的假设。这篇文章提供了一个了解当代新闻业的视角——这就是通过一种过度归纳的论证,来支持新闻算法的开发,以及新闻算法在新闻组织中的应用。从更宏观的视角来看,这种论述话语褒赏了新闻选择算法的优势,认为其为长久以来一直存在的一个专业问题——如何将混乱的世界组织为一个连贯的、有意义的、合法的系列新闻文本,②提供了一整套技术解决方案。对于新闻记者而言,新闻选择判断一直是该行业的一项核心功能,同时也是让记者备感担忧的一项功能,它让新闻记者做出的选择总是面临指责。但是由于对人类主观局限性的假设,新闻算法的开发应用给新闻记者判断带来了新的压力。
本文参考了在信息环境中日益增加的算法实践,历史性地考察作为一种社会实践活动的新闻业,算法如何影响我们对新闻业的基本理解。③本文的重点并不在于记者个人的实践,而主要关乎新闻判断这个棘手的问题是如何在实践中嵌入不断变化的话语当中的。借用詹姆斯·凯瑞(James W. Carey)有关电报方面的论述,在新闻生产和传播过程中,作用越来越大的算法,应该被看作“一个要认真思考的对象,一个要改变人们想法的机构”。④在他的历史考察中,凯瑞得益于具有历史视角的“后见之明”,而在一个急速变动的技术环境中,我们却没有这样奢侈的待遇。由于算法实践事关对于新闻业合法性的认知假设,我们对于算法实践的判断考察即便面临许多困难,仍然是非常迫切的。
本文首先考察新闻业现有的系统性限制,这种系统性限制导致主观判断成为新闻业一个难以解决的问题。此处,判断主要指影响故事选择和版面安排的决定(它明显有别于新闻采集初期阶段的判断)。接下来,本文主要论述算法实践如何影响对新闻判断的理解和对新闻业产生的影响。之后,本文以脸书“热门话题”(Trending Topics)爆出的假新闻作为个案,来分析算法判断的不可靠性。文章最后分析了知识实践和新闻价值观念变迁带来的社会后果。
一、新闻判断的局限性
从本质上讲,日常新闻工作就是不断做出判断。记者决定哪些信息是有用的,哪些信息无关紧要;哪些故事应该包括在内,那些故事应该排除在外;采用或回避什么样的新闻框架,以及如何强调或弱化一个新闻故事。这些判断生产出新闻文本,以一种知识的形式,将世界再现给受众。不过,即使判断与新闻工作难分难解,当牵涉到规范性话语(这种规范性话语使新闻知识合法化),以及新闻制作与发行的语境时,新闻判断就会出现一些问题。本节内容主要考察新闻判断面临的三种局限性。首先,新闻记者支持专业主义原则,从而使其工作合法化,但这种专业主义话语同时又受到其薄弱的学科边界影响。其次,在生产作为知识的新闻文本时,新闻记者的判断得以彰显,但是这种知识实践并不复杂,容易招致各个相关方面“指手画脚”。第三,现实偏见和对客观性的坚持,削弱了新闻选择和排序中包含的主观意图。
1.职业新闻的边界
专业主义必须通过一个界限分明的社群来控制特定的知识领域。专业人士利用专业知识,以及他们累积的声誉权威,做出相应判断。他们同时调动自身的主观性和客观性,对于现实做出在专业范畴内可行的阐释。这是一种高度情境化的判断,因为专业权威只能在特定环境、特定情况下,才能维持相应的判断。专业判断的合法性需要通过奥蒂(Audi)所说的对社会效益制度化的“认知承诺”(epistemic promise),而不仅仅是强化专业性。⑤
人们很容易将新闻记者的专业判断与其他行业的专业判断相提并论。新闻记者拥有独特的角色观念、共享的伦理规则,以及哪一种实践是适当的或不适当的常规做法。由此,新闻记者将自己作为一个特殊的群体,与其他群体区分开来,而记者的认知责任(epistemic responsibility)就是为他人创造知识。正如科瓦奇和罗森斯蒂尔在他们影响深远的著作《新闻学的十大原则》中所写的,“新闻业对一个文化而言有其独特的作用:为公民提供实现自由所需的独立、可靠、准确、全面的信息”。⑥因此,对于公民社会而言,新闻记者的工作就变得至关重要。不过,专业主义话语将记者的判断置于一个不太稳定的基础之上。相对于其他专业,新闻业并没有建构出相应的明确界限。在美国和其他一些国家,这种“明确界限”包括强制性的教育背景要求、资格考试、人际关系、法律保护,以及标志其典型职业特征的复杂知识。模糊的边界让新闻专业主义产生诸多问题,⑦甚至有学者建议将新闻业看作是一种非传统的集合形态(alternative collective formations),比如一门手艺(a craft)。⑧
模糊的定义和孔洞性的边界让“新闻业”(journalism)成为一个可以指涉许多事物的不稳定术语,这个词语可以指涉一种活动,一种叙事形式,以及一系列的认知观念(epistemological beliefs)。⑨新闻场域(如果真的存在的话)包含着多样性和竞争性。作为一种工作,新闻从业者的职业构成中,既有确定的全职领薪雇员,即典型的“记者”(reporter),也有状态不确定、无法分类的新闻生产参与者——这就导致对于“新闻从业者”概念的认知不全面、不一致,同时也让新闻业成为一个竞争激烈却面向所有人开放的行业。这种行业模糊性来自新闻从业者不确定的角色和对非传统新闻形式的认识分歧。
随着数字媒体的崛起,新闻报道形式和实践的多样化进一步为新闻专业主义的主张带来压力。以往,大众传播基础设施的巨大成本作为一种边界机制,让人们不能随意通过媒体公开发表言论;而成本相对低廉的数字媒体技术彻底打破了这一障碍,为人们带来了新的参与机制。利维斯(Lewis)较为深刻地认识到了这种变化的本质,他将新闻业的专业逻辑和参与逻辑区分开来看待。利维斯所说的专业逻辑主要指传统新闻业的实践活动,而参与逻辑主要指一种集体实践活动,这种集体实践活动一般被称为“公民新闻”(citizen journalism)。
新闻专业主义的模糊性表明,专业主义本身不能坐实新闻判断的有效性,也不能保护记者的权限范围内的主张。在数字新闻时代,新闻业的边界仍然具有一定的可渗透性,同时也更容易受到外界的影响。因此,要单单依靠专业主义为新闻业提供一定的边界保护越来越不可能。这种状况会影响到新闻记者对自己集体身份的认知,也会影响到新闻记者如何生产新闻文本。
2.新闻知识实践
新闻判断的第二个局限性涉及新闻业的知识实践。专业权威并非来自强制性权力,而是来自马克斯·韦伯所说的“以知识为基础的控制实践”。⑩控制知识——谁可以生产知识,知识应该以什么样的形式呈现,以及谁有资格消费知识——对于边界建构和合法性的确立至关重要。专业人士拥有一定的“认知权威”(epistemic authority),他们凭借对与职业相关的具体知识的支配和控制,凭借他们将自己与外界行业隔离开来的能力,以确保他们拥有的“认知排他性”(cognitive exclusivity)。尽管记者拥有生产新闻的特殊技能,但由于新闻业强调媒介产品要在尽可能广的范围内为受众所接受,这还是让新闻记者的知识实践不同于其他行业的专业知识。
帕克(1940)认为新闻作为一种独特的知识形式,明显不同于正式的知识生产机制。帕克指出,在某种程度上,新闻业的社会功能近似于“了解”外部世界:“就像人拥有观察世界的视角一样,新闻业也在为公众提供类似的功能,也就是说,新闻业与其说是‘告知’公众,还不如说是为公众指出一个方向,让每一个人注意到正在发生什么。”在帕克的定义中,个人视角和作为公共视角的新闻业是不同的。生产新闻知识的目的就是让大家都来消费它,正是这样一种本质上的共享话语构成了“一种公共记录(a public document)”。这种看待知识的视角,明显不同于其他具有职业限制性的知识话语。新闻作为一种知识形式,并不是因为它是一种受到严格控制的话语(至少从文本方面来讲),而是因为它告知公众发生了什么,为什么这件事是重要的。新闻知识的优势就在于易于被公众理解,并增进公众之间的相互理解。在数字时代,尽管新闻知识更为多样,互动性也更强(conversational paradigm),但我们仍然看重新闻作为一种日常知识的重要性。
新闻知识实践牵涉的判断问题,确实引起了人们的诸多关注。事实上,公众常常会审视新闻从业者的工作。新闻业始终强调其报道对于社会的重要性,但同时缺乏排他性的专业话语,这让新闻报道容易招致来自公众的批评。当然,其他职业也会受到批评,但由于专业知识的限制,批评通常限于对于执业者主观意图的判断(比如,认为律师或医生是贪婪的)。诚然,记者工作的主观意图也会被批评(比如,认为记者在政治上有偏见,或者在追逐特定的地位),但是他们的职业实践,例如选择报道框架、设置报道版面、决定省略某些内容等,也经常会让他们受到攻击。换句话说,新闻知识生产所需的判断,永远会让新闻业面对外部的批评。美国学者舒德森认为,新闻业“并非是一个绝缘的职业”(an uninsulated profession),[11]对新闻报道和新闻记者的诸多批评,更充分印证了这一特征。此外,由于过分强调新闻价值(newsworthiness)的外在品质,而不是主观选择,也导致记者对自己所做判断的辩护受到影响。
3.新闻价值的客观外化
新闻判断的第三个局限性聚焦于新闻价值的合理性,以及新闻记者如何选择、制作每个“新闻故事”,并将这些“新闻故事”排序,建构作为“新闻”的话语。在业务层面上,新闻判断的制度化和系统性应用,已经在有关“守门人”的大量研究文献中得到了深入探讨。本研究主要是将影响新闻工作者做出决定的制度、文化和心理等因素概念化。不过,新闻价值很难系统化或普遍化。实践中不断积累的判断决定会提供一定的指南,但新闻选择往往始于一种“直觉”(gut feeling),尽管难以形容,但这也正是“正统规则习得”的产物。[12]新闻知识生产结合了某种“心照不宣”的专业判断(tacit elements),以及认可这种判断对新闻权威性的重要性。
在新闻业的合法性话语中,对于新闻客观性的突出强调,进一步限制了新闻业专业判断。理想状态下,客观性要求新闻记者在选择和描述新闻事件时,尽量去除主观性。新闻记者理应对发生的事件做出回应,遵循职业训练去报道新闻事件,并尽可能忠实地将事件再现给受众。抛开对它的批评不讲,客观性已经变成专业新闻报道的一个标志,并深深铭刻在新闻记者的职业惯例当中。[13]作为一种话语,通过强调一个事件本身的特性,而不是强调新闻工作者的判断,客观性将新闻价值客观外化了。记者要做出决定,但他们对于做出决定的这一主观行为,却缺乏一套规范性的正当化说辞(媒体分析人士、专栏作家和社论主笔可能是个例外,因为他们主要负责提供判断,但是意见人士与标准新闻生产的差异,只会让他们之间的鸿沟变得更深)。
在前几年的一项研究中,芬克和舒德森(Fink & Schudson)指出,由于对新闻判断缺乏专业性的辩护,报纸从原来占较大篇幅的描述性记录,更多地向解释性报道方向转变,他们将这种报道称之为“情境化报道”(contextual reporting)。[14]新闻记者逐渐超越对事实的陈述,转而开始评价这些事实。这是一种已经发生的大规模变化,但芬克和舒德森认为,这种变化并没有引起新闻业界足够重视,而且在新闻业的规范化语言中,也没有出现相应的改变。这并不是说新闻界缺乏其他规范性的选择,比如一些新闻记者已经注意到,他们需要在伦理和规范化方面进行创新。[15]但这种现象确实表明,客观性作为“职业意识形态”(occupational ideology)始终强大,对于客观性的规范化论证,也仍旧支撑着整个新闻业的发展。[16]新闻价值作为一种特殊的专业新闻判断形式,随着数字新闻平台的崛起,面临着新的限制。新闻判断的“直觉”模式开始与受众流量共存,这是另外一整套决定选择和新闻排序的相关标准。新闻记者一直在努力平衡竞争利益和风险自治。记者的新闻决定和受众兴趣之间的差异,现在可以通过分析消费数据显示出来。新闻记者正在学习如何在新的环境中工作,在新的数字环境中,记者的工作可以单独量化考核,而编辑也可以利用流量模式作为选择的参考。[17]由于通过数字新闻创造利润并不容易,因此在新闻选择判断过程中,这类流量指标就变得愈发重要。
尽管目前我们仍缺乏对新闻专业判断的规范性支撑,记者的判断决定还是为受众塑造了外部世界。新闻记者对于社会重要性的判断模式,已经内化得根深蒂固,以至于新闻生产过程中的每一个“微决定”都倾向于模式化。因此,新闻编辑室内部会出现分歧,但是这种分歧仍然被限定在一个通常可以接受的范围之内。当采集到的新闻素材制作成大范围传播的新闻产品时,新闻选择预设了一个单一的、对于相对重要性的统一排列。对舒德森而言,新闻记者就是“道德的放大器和组织者”,他们严格坚持了“道德显著性的等级排列”。[18]同样,巴瑟斯特和内罗(Barnhurst & Nerone)将有目的地排序报纸故事等同于创造一个“社会地图”,这个“社会地图”不仅告诉我们发生了什么,而且会告诉我们所发生的事件,哪些是相对比较重要的。[19]我们需要认识到,在整个新闻工作中新闻判断一直以各种方式存在,以及当算法开始做出判断决定时,原来的新闻判断会出现什么样的变化。
二、算法判断的崛起
现在,我们分析一下算法的判断处理能力。通过遵循预先设定的程序,算法对一个问题进行回应,从而生成一个具体的结果。作为一种能够做出决定的结果导向型(output-based)技术,算法被越来越普遍地应用于现代知识经济的各个领域,它可以有效地驯服信息浪潮,让大规模的个人化信息传播成为可能。不过,由于媒体组织日益使用算法来排列组织信息,算法对信息传播的影响也引发了人们对它的质疑。一些批评人士认为,要持续关注算法责任问题,同时要抵制算法影响特有的不透明性。[20]总的来讲,围绕飞速变迁的社会技术环境,我们对于算法判断在现实生活中的作用,常常同时掺杂着乐观和恐惧的心情。
首先,我们必须仔细定位算法具有的主体性。实际上,只有在具体的情境中,算法才是有意义的代码。算法并不是孤立的决定性因素,而是在传播实践网络中不可分割的一部分,这个传播实践网络包括经济、制度以及越来越多的法律和伦理问题。学者阿纳尼(Ananny)敏锐地把握住了这一问题的复杂性:
算法不仅加速促进商业、新闻业、金融业及其他领域的快速发展——它同时被看作是与社会、技术相关的一种话语和知识文化,这涉及在算法结构中,信息如何生产出来、如何浮现在我们面前,以及我们如何来理解这些信息,这些信息是如何被看作是合法的,又是如何被赋予公共意义的。[21]这种强调文化与制度嵌入的算法观点,并没有将算法看作是维护已有实践规则和现存权力结构的一个简单工具,也不认为算法能独立获取其主体性,甚至也没有将算法看作是支配生产和使用的先天性力量。相反,我们沿着阿纳尼的视角,将算法定位于它们的实践所存在的社会技术集合(sociotechnical assemblages)之中。这类社会技术集合包括制度运作,但是与本文联系更为紧密的一点是,与现存的知识结构相比,算法也会利用正当化的修辞,来合法化它们的知识结构。
本文这部分内容遵循美国学者安德森的研究路径,试图追问过去为专业记者所拥有的判断变成一个算法产品时意味着什么,并以此来探寻新闻算法所带来的文化与社会后果。首先,我们会考察为何越来越多的新闻组织会利用算法来选择、传播和写作新闻文本。从新闻记者的判断转变到算法判断,其背后有速度、效率和成本效益等组织需求动力,同时也包括对判断规范性的重新塑造。第二部分内容是将算法判断与新闻工作者的专业判断区分开来。算法判断不仅是现存新闻逻辑的延伸,它也有自己独特的特征,并且以自己独有的方式在持续不断地变化。
1.算法新闻实践
算法让不完全依赖于人的新闻实践活动变得可行。算法系统帮助新闻网站评估读者的评论质量,挖掘社交媒体平台上的重要故事,利用数据集来生成新闻故事。与这种技术变迁相伴随的是制度安排的变化,比如新闻记者与技术人员的合作。[22]在这些例子中,人类与算法劳动的融合是互相影响的,双方都利用各自的优势能力来生产新闻。不过,本文主要关注算法是如何介入了从前完全由人力主导的新闻生产领域。
2002年,“谷歌新闻”(Google News)的启动标志着算法判断直接入侵了人类的编辑判断领域。“谷歌新闻”起初仅仅是一名计算机工程师的附带项目,而后逐渐演化成一项单独的业务,它将来自各类新闻机构的新闻重新组合为一个具有权重分级的故事列表。“谷歌新闻”在制作头版新闻的时候,就是在没有人类编辑的情况下,通过各种话题来排列新闻。这样,头条新闻报道就变成了搜索算法的结果,而不是人类判断的结果。该新闻网站迅速引起了人们的关注、批评,偶尔也有来自记者的嘲笑,但是,谷歌一直坚持自己的算法排序所生产的个人化的定制新闻页面可以为用户提供服务。
从专业新闻价值判断转换到算法判断并不简单。在数字空间中,由于缺乏传统的大众传播“策展式”(curated model)的内容筛选模式,这种转变更加突兀。推特和脸书就是两个很好的例子。这两个社交媒体平台都面临着这样一种紧张关系:是提供没有过滤的内容信息流,还是添加系统来捕捉、控制和排序信息流,让其易于管理,同时还要增加用户的参与程度。本质上,这两个社交媒体都不是新闻网站,不过,这两个社交平台的确已经成为重要的新闻消费平台,尤其是对于年轻新闻消费者而言。推特和脸书都在利用算法来优化内容——比如推特的“热点话题”(trending topics),或者是脸书中的个性化“新闻流”(news feeds)。
算法判断也出现在新闻网站中。最常见的操作是,在数字新闻网站中,推荐引擎(recommendation engines)可以分析用户过去的行为和偏好,为用户呈现和他们潜在相关度最高的新闻内容。推荐的目的是让用户活跃起来,从而增加页面浏览量和广告浏览。比如《华盛顿邮报》积极地在其移动平台上建立推荐功能以保持用户活跃度。而推荐引擎提供的个性化新闻内容排序,与由新闻记者决定权重的新闻主页(hierarchical home pages)完全不同。
除了排序和推荐功能,通过自动化新闻(automated journalism)技术,越来越多的新闻组织开始利用算法来生产新闻——完成最初的编程之后,自动化新闻生产便不再需要人工干预。[23]人工智能和自然语言处理技术(natural language processing)的进步,创造出将数据转换为可发表故事的商业机会。这种变革威胁到已经岌岌可危的新闻记者工作,但是这些技术的开发者指出,通过将生产单篇新闻报道的成本降低至接近于零,算法技术扩增了新闻报道总体数量。
算法技术也会重塑我们对新闻业的理解。由于劳动力的限制(新闻记者只能生产固定数量的新闻报道)和空间限制(新闻产品,不管是报纸还是广播电视,由于版面和频道有限,只能传播特定数量的新闻报道),新闻产品的数量总是有限的。新闻选择因而成为一种有意义的阐释性行为,它更多地受到各类资源限制的影响,而不仅仅是现实中发生了什么。通过成倍地生产可以报道的新闻故事,自动化新闻颠覆了传统新闻惯例,并超越了当下对新闻业的种种限制。新闻市场上的新闻报道数量激增,必然会降低每一则新闻故事被读者阅读的机会。与上文中专业逻辑讨论中所述内容相比,这是一种截然不同的“何为新闻”(what news is)的理念。
从经济上来讲,自动化新闻增加了网络流量,创造了读者的忠诚度,同时推动新闻业超越“前数字时代”(pre-digital)的大众传播模式。很明显,算法实践孕育着新的机会,它在不断地扩张我们对新闻业的想象。算法新闻判断同时也改变了我们对现有新闻判断模式的理解。
2.厘清新闻判断与算法判断
如果要将新闻算法对新闻判断的影响理论化,首先我们要回到专业主义、知识生产和新闻价值对于新闻判断的局限上来。从表面上看,算法新闻生产与传播实践,似乎是专业新闻逻辑和知识实践的一个自然产物或延伸。不管是算法还是新闻专业主义,都是通过理性和客观性的话语来支持他们的权威性。比如,对于新闻专业主义的坚守依赖于更广泛的民主规范:在这样的体制下,理性人假设得到推崇,新闻则被看作协助建立良好公民性和公民自治的信息平台。信息算法的合法性话语也依赖于这种广泛的民主逻辑。有学者用“信息获得民主化”的话语支持搜索引擎的社会效用,新闻选择算法的拥趸也相信自动化的算法技术能帮助用户更容易地获取和他们生活相关的新闻内容。[24]此外,新闻记者有目的地使用算法,并决定如何编程和利用算法,这样就将技术与现有职业逻辑紧紧结合在一起。事实上,新闻算法的开发者,比如在本文开头提到的两位计算机科学家,就建议要与参与决策过程的记者保持高度的紧密合作。
尽管算法判断和新闻判断有如此多的重叠之处,如果认为算法判断只是专业新闻判断的延伸,或者是对新闻判断的自动化替代,将是一个错误。新闻选择算法不仅仅是现存新闻思考模式的附庸,它们同时也拥有自己的逻辑,而且还可以出于不同的目的来排序和分发信息。在这一论证过程中,我们需要关注的是,算法判断如何改变新闻知识和新闻价值。
要了解新闻算法如何影响了新闻知识的生产,第一步是厘清两者之间有关客观性的重叠话语。新闻业是一种遵循一定程序的知识生产行为,关乎从业者对新闻业的一些内化理解(internalized understanding):比如,新闻知识应该是什么,应该怎么来生产,谁应该来生产。从这种观点来看,客观性在新闻业中的地位既稳固又飘摇。客观性可以被看作是新闻文本合法化的一种认知策略,也是记者采取的与新闻来源拉开距离的一种立场态度,同时也是记者将责任转移给他人的一种表达方式。[25]理想状态下,客观性将新闻记者定位为脱离于社会情境的超然观察者,从而得以投身于新闻专业主义的实践;而在现实中,新闻记者总是处于层级分明的具体社会生活情境之中。此外,客观性还遭遇了后现代和后结构主义概念中知识偶然性(contingency of knowledge)的冲击。[26]结果,在新闻业的合法性话语中,对人类主观性的压制导致我们对于新闻判断的理解并不全面。
相反,算法拥有“有关什么是知识,以及如何确定最相关组成部分的特定假设” [27]的知识逻辑。将吉莱斯(Gillespie)提出的“为何算法被看作是一种可信的知识逻辑”应用到新闻业中,要求我们关注在算法判断话语中对客观性的强调。因为算法遵循的是预先选择的程序,而不是即时的判断,它们围绕的是吉莱斯所说的“算法客观性”(algorithmic objectivity)假设——算法是中立的,因为它将所有的信息数据输入到同样的程序中。这种算法客观性话语,关联到的是一种更为宏大的文化话语,这种文化话语,将人类主观性与计算机程序的无意识自动化客观性(unthinking automated objectivity)进行了对比。
算法逻辑和专业逻辑在知识生产上的差别会使新闻权威性产生动摇,因为算法判断某种程度上能替代本来能够赋予从业者专业身份认同的人工判断过程。正如本文开头,Toraman 和Can提出的论争——“记者也许会无意中选择毫无价值的新闻,或者甚至会依据他们自己的视角来选择”——其实他们想说的是因为算法会克服人类内在的偏见和限制,算法要优于记者做出的新闻选择判断。与这种话语类似的是谷歌对“谷歌新闻”的赞扬,谷歌的种种论证也是在支持自动化新闻的开发。如果新闻知识生产的理想是这种“客观性”的实现,那么新闻算法理应被推上神坛。
新闻算法影响新闻判断的第二个领域涉及新闻价值——主要是涉及新闻的排列位置,不过也逐渐开始涉及新闻内容生产。新闻文本的选择及其等级排列位置与新闻的专业逻辑有关。由于强调公众服务,这让新闻业拥有了一定的自主性和社会地位,同时也有学者认为新闻业是为杂乱纷呈的世界带来秩序的一种阐释行为。尽管新闻价值需要判断,但新闻业规范却排斥主观性,这样一个新闻素材的外部特征就被认定为是新闻价值的决定性因素。尽管如此,整体上的新闻价值还是由记者的判断来决定(至少在一定的地域范畴内),理论上讲,依据大众传播的固有逻辑,新闻作为有关社会的权威记录总是从中心向外部传播。[28]算法背后的知识逻辑从强调公众普遍认可的重要性,转移到基于用户的特定属性和搜索的个性化新闻和碎片化新闻(segmented news)上。算法的速度和蕴含的个性化潜质让这类新闻生产环境蓬勃发展。算法判断是有弹性的,基于个体的,但新闻判断却不是这样。从这个意义上来讲,算法的个性化(algorithmically personalization)根本不同于以往新闻专业所定义的公共特征(communal character)。[29]这种变化让我们对新闻受众的理解,从一种整体(aggregate)转变为社会个体。[30]这样一来,新闻业专业判断的核心问题——“什么值得关注”转变为个性化的追问——“这个人想要什么”。这种转变是人们一直期待的,同时也是人们一直关注的。[31]从传统媒体效果研究的选择性接触,到现在大家批评的“过滤泡”,[32]新闻业的细分化或个性化带来了新的问题。新闻个性化应当被理解为是对经济需求的回应而不是对新闻规范性的回应,就像广告业总是紧盯目标市场。尽管个性化内容和广告会创造一定的经济价值,但它们的结合会进一步抑制新闻的聚合力(collectivizing force)。[33]总的来讲,这种转变代表着对传统新闻业理解的一种根本背离,并且算法判断也不能简单地认为是新闻专业判断的自然延伸。
这些在知识生产和新闻价值方面发生的转变并不能一概而论,但是标志着一种混杂(hybrid)新闻环境的建立。[34]新闻生产向数字平台转变,为算法判断的繁荣创造了更大的空间。不管算法新闻实践会提供多少好处,它们正进入一个曾经是人类进行目的性、阐释性劳动(interpretive labor)的领域。考虑到围绕着计算机自动化生产过程出现的客观性话语,新闻记者必须重新评估如何让记者自己的专业判断合法化,而不是降低专业判断在新闻生产中的重要性。
三、算法判断与假新闻问题
2016年8月脸书的“热点话题”事件体现了人工新闻判断和算法判断的差异。几个月之前,科技新闻网站Gizmodo报道了“热点话题”背后的人类—算法杂交实践。指责新闻内容管理者故意压制保守性话题,人们因为脸书所体现的自由主义偏见,而对其进行了抵制,督促该网站进行道歉,并进一步对自己的做法进行相关调查(并没有发现系统性的偏见)。
将“热点话题”全盘自动化之后,脸书更进一步,取消了这个功能的内容管理团队(curation team)。在新闻编辑部的博客中脸书解释它这一举措,“对产品所做的这些改进,可以让我们的团队对于热点话题,少做一些个人决定”。这些行动措施,重申了脸书所持的立场:应该基于各种不同的信息输入,来实现新闻的定制化,这样才能更好地吸引用户。通过引入个人化概念,脸书暗示新闻价值就是通过算法判断实现的个人信息偏好,而不是通过新闻记者判断确认的共同价值。由此体现了脸书所持的第二个立场:偏见以及难以超越偏见是人类主观性存在的固有问题,因此我们需要一个解决方案,通过公认的客观性算法来提升自动化程度。
不过就在脸书将“热点话题”完全自动化后几天,一个题目为《突发新闻:福克斯新闻网揭露了叛徒梅根·凯利(Megyn Kelly),把她踢出支持希拉里团队》的新闻故事让福克斯新闻网著名主持人梅根·凯利成为头条新闻话题。这个故事来自一个名为endingthefed.com的网站,完全系该网站捏造的,这个网站只是将来自其他网站上的骇人听闻的新闻聚合在一起。但是就是这样一则虚假报道获得了20万个赞。毫无疑问,正是“热点话题”的头条显著位置让它收获了这么多赞。这是一个非常明显的假新闻例子,学者沃德尔将其称之为“捏造的内容”(fabricated content)——这些捏造的新闻故事没有任何可以查证的线索,其进行欺骗的目的包括人身伤害,或是仅仅增加流量。
有关梅根·凯利的这则假新闻遭到了记者们的奚落。《大西洋月刊》记者罗宾逊·迈耶(Robinson Meyer)旋即批评脸书:正是因为脸书解雇了负责监视这类假新闻的内容管理工作人员,导致了这样的过错。
对于这则假新闻的评论主要集中在对社交媒体的政治经济学分析上:售卖广告需要大量的用户参与(这也是一些网站兜售假新闻的前提条件)。这个案例也说明了算法判断的粗糙。在Quartz网站上,马克·墨菲(Mike Murphy)也提到了这则假新闻故事出现的时机:“就在脸书将‘热点话题’团队所有编辑人员解聘两天之后,那些负责进行决策的机器人看起来被愚弄了。”这表明,在试图规范化选择标准的过程中,算法判断会让那些聪明的程序员感到尴尬,因为有时算法会让系统自动传播假新闻。
在梅根·凯利的假新闻发生后不久,因为审查了美联社战地记者黄功吾(Nick Ut)在越南战争期间拍摄的著名照片《战火中的女孩》(Napalm Girl),脸书再次受到谴责。在这张照片中,一个全身赤裸的女孩正在躲避凝固汽油弹的袭击,而脸书则认为其展现裸露而违规。任由虚假新闻传播同时又压制有价值的新闻报道,人们开始怀疑脸书的算法权力,感到算法会限制新闻与思想观念的流通。《卫报》记者萨姆·莱文(Sam Levin)也批评了脸书拥有的庞大权力,“脸书对于新闻的控制如此之大,以至于它可以通过审查的方式严重地威胁到新闻自由”。在某种程度上,脸书的确有能力影响到它15亿用户的信息接收。
在面对算法的这些缺陷时,新闻记者和其他一些学者呼吁回到“人工影响模式”(human-influenced model)。《财富》记者马修·英格拉姆(Mathew Ingram)指出,“相比假装算法可以解决一切问题,社交媒体网络应该尝试聘请一些人工新闻编辑来帮助它们快速发现假新闻”。他的观点得到了明尼苏达大学法学院教授简·柯特利(Jane Kirtley)的回应,“我们所需要的肯定不仅仅是算法。我们需要活生生的人来分析和阻止这些不合理的信息传播”。人工判断的优势在于能够筛选假新闻又不会进行过度审查。具有反讽意味的是,自动化判断的失败反而被用来证明人类判断的优势。自动化技术存在的缺陷鼓励了更多人工参与的新闻选择判断中。
“热点话题”所引发的争议尽管让脸书的公关部门头痛,却进一步说明了算法判断带来的社会后果。脸书急于要为受众提供一个定制化的(customizable)媒体空间,结果这个媒体空间让不真实的新闻四处泛滥。真假新闻在同一个媒体空间中传播,结果导致它们之间的界限模糊。当然,这并不是说人类判断是一贯正确的,在过去的历史中,传统媒体中也出现过许许多多的假新闻。不过,这个案例将不同的逻辑置于新闻生态系统中,并提出了这样一个问题:在复杂的民主社会中,不同的新闻判断逻辑如何影响真实信息的传播。
结论
人们可能会有这样的疑问,在多大程度上,新闻算法会让长久以来的新闻专业逻辑更加清晰,又从多大程度上创造一种新的逻辑?这两种判断之间究竟存在着的是被神化了的巨大差异,还是已经产生了本质性的变化?本文认为,算法判断不仅仅是新闻业现有职业逻辑的延伸,而是一种新的聚合体,这个聚合体包括行动者网络、生产新闻的系列实践、合法性判断形式的论证,以及能够合法化的知识类型假设。
从新闻判断向算法判断的认知转变,带来了许多社会后果。通过与其他行业共同建构的权威联系(authority relations),新闻业将自己的角色定义为了解外部世界知识的文化生产者。随着算法应用的不断增加,整个系统都将会做出调整,并且会改变新闻合法性话语的模式、新闻知识的塑造,以及对新闻业的社会希冀。有关算法判断效用的理论假设,已经在新闻业算法实践的话语中初步形成,特别是在算法客观性和大规模个性化方面。算法技术的发展还提出了一些问题:新闻知识应该是什么样子,而新闻权威(journalistic authority)又该如何运作。其中最明显的一个转变是,过去我们强调新闻价值(newsworthiness),而现在则强调个性化。在个人层面,个性化算法为“过滤泡”的形成创造了条件,“过滤泡”会限制人们接触多元的话题或观点。在社会层面,个性化算法会抑制集体的公开抗议,让帕克(Park)对新闻知识的定义很难实现——“让政治行动成为可能的新闻内容,这种政治行动明显不同于其它集体行为。” [35]不管是新闻判断,还是算法判断,它们带来的社会后果都需要重新评估。但是,由于在目前新闻业的合法性话语中,主观判断的地位难以确立,这就让这种反思变得更加困难。由于对基于计算机技术的客观性(computational objectivity)的优先强调,算法判断让新闻判断中主观性的缺席这一问题更加复杂化。尽管有一定的缺陷,但是由于对计算客观性的信任,会让记者或新闻组织通过算法干预进一步隐藏新闻判断或者是通过排除新闻报道中人类的主观价值。
要捍卫新闻判断必须直面目前发生的变化。新闻写作已经逐渐从描述性(descriptive)走向阐释性(interpretive)。这一对记者权威的重新论证认为记者不仅是在再现世界,而且是在理解世界。这样做并不需要完全放弃客观性规范,而是需要认识到专业判断中固有的客观性和主观性的相互关联。比如,“透明性”正越来越多地被援引为是新闻报道合法性的规范基础。通过公开生产新闻报道背后的过程,透明性向受众展示了新闻是如何生产出来的。这种视角重构了记者与受众之间的关系,同时也允许外界仔细检视记者的主观判断。在特定的信息环境中,透明性还提供了对新闻算法权力一系列有价值的核查体系。提升透明性所面对的难题是:在自动化新闻生产过程中分不清谁是作者;新闻组织也不太愿意公开算法过程。透明性同时也让算法对于伦理、文化、认知等其他话题产生了较为敏感的影响。
算法判断的话语如何影响我们对新闻业的思考?在提出批评和回应时,我们需要新的视角。对于新闻记者、技术专家和受众来讲,这促使他们要更加敏感地把握专业新闻判断和算法判断之间的区别。记者则需要积极适应,提供深思熟虑的判断,为他们的文化权威打造新的主张。鉴于我们过去对客观性的坚持,这样做可能会受到谴责,但从目前来看提升新闻从业者的主观专业判断力越来越有必要。对于学者而言,在未来的研究当中,我们需要更加关注算法判断如何改变新闻生产,关注治理算法过程及其输出结果的制度性安排是如何运作的,同时还要关注算法判断的合法性话语是如何建构的。■
①Toraman C and Can F (2015) A front-page news-selection algorithm based on topic modelling using raw text. Journal of Information Science 41(5): 676–685.
②Carlson M (2017) Journalistic Authority. New York: Columbia University Press.
③Anderson CW (2013) Towards a sociology of computational and algorithmic journalism. New Media & Society 15(7): 1005–1021.
④Carey JW (2009) Communication as Culture. New York: Routledge. p. 157
⑤Audi R (1998) Epistemology. London: Routledge.
⑥Kovach B and Rosenstiel T (2001) The Elements of Journalism. New York: Three Rivers Press. p. 3.
⑦Schudson M and Anderson CW (2009) Objectivityprofessionalismand truth seeking in journalism. In: Wahl-Jorgensen K and Hanitzsch T (eds) Handbook of Journalism Studies. London: Routledgepp. 88–101.
⑧Kimball P (1965) Journalism: artcraft or profession. In: Kenneth SL (ed.) The Professions in America. Boston, MA: Houghton Mifflinpp. 242–260.
⑨Waisbord S (2013) Reinventing Professionalism. Cambridge: Polity Press. Lewis SC (2012) The tension between professional control and open participation: journalism and its boundaries. InformationCommunication & Society 15(6): 836–866.
⑩Weber M (2009) The Theory of Social and Economic Organization. New York: Free Press.
[11]Schudson M (1978) Discovering the News. New York: Basic Books.
[12]Schultz I (2007) The journalistic gut feeling: journalistic doxa, news habitus and orthodox news values. Journalism Practice 1(2): 190–207.
[13]Schudson M (1995) The Power of News. CambridgeMA: Harvard University Press.
[14]Fink K and Schudson M (2014) The rise of contextual journalism, 1950s–2000s. Journalism 15(1): 3–20.
[15]McBride K and Rosenstiel T (2013) The New Ethics of Journalism: Principles for the 21st Century. Los AngelesCA: CQ Press.
[16]Deuze M (2005) What is journalism? Professional identity and ideology of journalists reconsidered. Journalism 6(4): 442–464.
[17]Usher N (2016) Interactive Journalism. Urbana, IL: University of Illinois Press.
[18]Schudson M (1998) The Good Citizen. New York: Free Press.
[19]Barnhurst KG and Nerone JC (2001) The Form of News. New York: Guilford Press.
[20]Diakopoulos N (2015) Algorithmic accountability: journalistic investigation of computational power structures. Digital Journalism 3(3): 398–415.
[21]Ananny M (2016) Toward an ethics of algorithms conveningobservationprobabilityand timeliness. ScienceTechnology, & Human Values 41(1): 93–117.
[22]Usher N (2013) Al Jazeera English Online: understanding Web metrics and news production when a quantified audience is not a commodified audience. Digital Journalism 1(3): 335–351.
[23]Carlson M (2015) The robotic reporter: automated journalism and the redefinition of laborcompositional formsand journalistic authority. Digital Journalism 3(3): 416–431.
[24]Halavais A (2009) Search Engine Society. Cambridge: Polity Press.
[25]Tuchman G (1978) Making News. New York: Free Press.
[26]Zelizer B (2004) When factstruthand reality are God-terms: on journalism’s uneasy place in cultural studies. Communication and Critical/Cultural Studies 1(1): 100–119.
[27]Gillespie T (2014) The relevance of algorithms. In: Gillespie TBoczkowski P and Foot K (eds) Media Technologies. CambridgeMA: MIT Presspp. 167–194.
[28]Hallin DC (1992) The passing of the “high modernism” of American journalism. Journal of Communication 42(3): 14–25.
[29]Thurman N and Schifferes S (2012) The future of personalization at news websites: lessons from a longitudinal study. Journalism Studies 13(5–6): 775–790.
[30]Anderson CW (2011) Between creative and quantified audiences: web metrics and changing patterns of newswork in local US newsrooms. Journalism 12(5): 550–566.
[31]Sunstein CR (2001) Republic.com. PrincetonNJ: Princeton University Press.
[32]Pariser E (2011) The Filter Bubble. New York: Penguin Press.
[33]Couldry N and Turow J (2014) Advertisingbig data and the clearance of the public realm: marketers’ new approaches to the content subsidy. International Journal of Communication 8: 1710–1726.
[34]Chadwick A (2013) The Hybrid Media System. Oxford: Oxford University Press.
[35]Park RE (1940) News as a form of knowledge: a chapter in the sociology of knowledge. American Journal of Sociology 45(5): 669–686.
导读参考文献:
Carlson, M. (2015). The Robotic Reporter: Automated journalism and the redefinition of laborcompositional formsand journalistic authority.Digital Journalism,3(3): 416-431.
Carlson, M.& LewisS. C. (2015).Boundaries of journalism: Professionalismpractices and participationNY: Routledge.
Carlson, M.& UsherN. (2016). News Startups as Agents of Innovation: For-profit digital news startup manifestos as metajournalistic discourse.Digital Journalism,4(5)563-581.
Carlson, M. (2017). Automating judgment? algorithmic judgment, news knowledgeand journalistic professionalism.New Media & Society(4)1-18.
Carlson, M. (2017). Journalism Unbound: When Professional Ethics Can No Longer Hold Journalism Together, Journalism & Communication Monographs, 19(4): 302-306.
DorrK. N. (2015). Mapping the field of algorithmic journalism.Digital Journalism, 1-24.
Lynch, C. (December 42017). Stewardship in the “Age of Algorithms”from http://firstmonday.org/ojs/index.php/fm/article/view/8097/6583
MartS. N. (2017). The Algorithm as a Human Artifact: Implications for Legal [Re]Search, 109Law Libr. J.387available at http://scholar.law.colorado.edu/articles/755.
Usher, N. (2017). Venture-backed news startups and the field of journalism. Digital Journalism, 1-18
马特·卡尔森系美国圣路易斯大学传播学副教授。原文Automating judgment? Algorithmic judgment, news knowledgeand journalistic professionalism,发表于New Media & Society,2017年5月优先出版。译者张建中系西安外国语大学新闻与传播学院副教授、国际传播研究所所长。