平台算法的“主流化”偏向与“个性化”特质研究
——基于计算实验的算法审计
■师文 陈昌凤
【本文提要】借鉴来自电视时代的“主流化”理论,本研究探究平台算法在新媒介生态下扮演的社会观念管理角色,以及算法的“个性化”特质如何影响这一整体倾向。研究立足于国际传播语境,采用大规模计算实验法创造并控制共1200个具有不同政治立场设定的用户“马甲”,对YouTube平台的搜索算法和关联视频推荐算法进行审计。研究发现,算法平台的内容呈现结构性地维系了符合数字霸权拥有者观念的“主流”信息秩序;算法的个性化特质是有限的,其非但不能逆转或消除主流化偏向,甚至会在某些情况下导致强化。研究认为,不同于电视时代,智能时代“主流化”现象的产生需进一步关注传播环节而非内容生产环节,即算法作为信息传播中介出现的决策偏向。本研究的结论将有助于理解全球化运营的互联网平台如何影响国际信息传播秩序,进而厘清智能时代我国对外传播面临的新挑战。
【关键词】智能传播 计算传播 平台算法 算法伦理 对外传播
【中图分类号】G206
一、引言
随着互联网平台成为数字时代信息传播的基础设施,平台内嵌的黑箱算法正成为将用户与信息桥接起来的中介,并且扮演起把关人这一控制性角色(Laidlaw, 2009)。目前,已有大量研究关注到平台算法对信息流通产生的影响,但是此类研究大多着眼于用户个体的算法使用行为如何作用于其信息环境的微观问题(王茜,2017;杨洸,佘佳玲, 2020),而较少聚焦于平台算法如何结构性地塑造整体信息环境的宏观问题,相应地,便难以基于相关的经验数据对平台的社会功能进行思考乃至批判。
为弥补目前研究的不足,本研究借鉴并部分地发展了格伯纳基于电视时代提出的经典大众传播理论——“主流化”,其认为大众媒介潜移默化地向公众维系了一个有别于客观现实的媒介现实(Gerbner & Gross, 1976),以使公众不断趋向有利于统治阶级的“主流”意识形态(Gebner, et al., 1980),成为社会控制的工具。如今,随着平台及其算法取代电视成为时兴的信息传播中介,本研究希望探讨的问题是:考虑到算法“千人千面”的特点,“主流化”理论将媒介视作社会控制工具的观点是否适用于算法平台?如果“主流化”偏向存在于如今的算法平台上,其将以何种方式呈现,又将在何种程度上被算法推荐的“个性化”特质挑战?以及,是否有与算法平台语境相适配的传播学研究方法以破解“主流化”的证明难题(Cook,Kendzierski & Thomas,1983)?
同时,鉴于跨国公司运营的互联网平台正在全球范围扩张,平台及其黑箱算法是世界信息传播秩序中不可或缺的一环,我们希望依托国际传播的语境,以YouTube平台为基础,回应上述问题——全球化运营的商业化算法平台是否会潜移默化地助推西方主流意识形态在全球范围内扩张?面对不同政治立场的用户,算法提供的“个性化”信息环境,是会顺应、消除还是逆转这一总体倾向?上述问题的答案将有助于我们思考智能时代跨国互联网平台对于国际范围内信息流通秩序的重塑效果及机制,厘清智能时代我国对外传播面临的新
挑战。
二、文献综述
(一)大众传播与主流化
1976年,格伯纳等人基于对电视暴力的研究提出“培养理论”(Gerbner & Gross, 1976),指出在现代社会中扮演“讲故事的人”角色的商业化电视体系呈现了一个与现实世界存在明显差异的媒介现实,导致观众头脑中对世界的理解出现偏差。培养理论强调,大众媒体帮助受众形成、维系观念,而非改变其观念,由于关注大众媒体润物细无声的长期影响,其被视作大众传播的宏观效果理论。在后续的研究中(Gebner et al., 1980),格伯纳等人进一步提出“主流化”(mainstreaming)观点,强调电视使重度用户观念趋同的效果,并逐渐从关注电视暴力转向性别权力、政治取向等更具一般性的意识形态问题(Gerbner et al., 1987; Signorielli,1989)。需特别强调的是,这里的“主流”并非指公众的观点简单地向大多数人靠拢,而是指趋向于统治阶级所期待的意识形态。换言之,“主流化”理论认为,在长期接触大众媒体的过程中,本应多元的公众价值观念不断地趋向于“主流”的社会价值规范,大众媒体因此成为维护既有社会秩序的控制工具。格伯纳将电视强大的效果归结于商业体制驱动的内容同质化(Gerbner, 1998),即为了生产流行的节目以吸引广告商,看似丰富的节目以一种集中、类似的方式被生产出来,形成单一且相当稳定的电视内容体系,在公众长时间的电视使用过程中产生效果。由于揭示了大众媒介塑造公众意识形态的强大功能,“主流化”被视作具有浓厚批判色彩的效果理论。
在后电视时代,由于相信“信息的内容比传递信息的技术更为重要”(Shanahan & Morgan, 1999),研究者倾向于认为,既然格伯纳所关注的商业体制、媒介易得性、长时间媒介使用等关键社会条件和媒介条件并未发生根本性改变(Morgan et al., 2015),格伯纳的发现仍然具有解释力。比如,VCR兴起之后不仅没有减损电视塑造公众认知的能力,反而因让重度观众观看更多相同内容,实际上提高了电视的效果(Morgan,Shanahan & Harris, 1990)。类似地,电子游戏也已被证明可以增加用户对现实世界暴力程度的感知(Williams, 2006)。即便互联网与电视时代有更大的不同,对上述发现基本逻辑的挑战仍较为有限(Morgan & Shanahan,2010)。比如,虽然互联网看似是去中心化的,但大众媒体主导社会议程等问题仍然存在(Weimann et al.,2014),如果将关注点聚焦于各类媒体接触的信息总量,而不是某类型媒体上获取信息的量(Morgan et al.,2015),新型媒体的培养效果依然不可小觑。研究已经证实,Facebook表现出培养公众的种族多样性感知的效果(Hermann, Eisend & Bayón,2020)。不过学者们也承认,在互联网时代,培养理论中关于“主流化”部分的论述将面临格外多的挑战,这主要是因为碎片化的分众之间共享的信息比重下降和少数群体反主流文化的兴起,因此需要从概念上和经验上评估媒介形态变化对“主流”文化这一概念以及主流化过程的影响(Morgan et al.,2015)。
在智能生态下,已有一些实证研究的发现触及“主流化”思想的边缘。鉴于信息接触是用户在态度、行为及认知等层面产生变化的前提,若干研究对算法信息呈现的偏向展开探索。对百余名谷歌搜索用户的调查发现,具有不同人口统计学特征的用户被推荐的新闻非常相似(Nechushtai & Lewis, 2019),即便政治立场不同的群体采用的检索词各有侧重,搜索引擎仍为他们返回大致相同的检索结果(Trielli & Diakopoulos,2022)。但遗憾的是,上述研究均止步于算法推荐结果相似这一层面,未验证“主流”一词——趋同的方向是否偏离现实且对统治阶级有利。
(二)平台算法与个性化
“个性化”是互联网平台算法最引人关注的特质之一。由于存在将用户困于“信息茧房”的可能性,个性化算法降低用户信息接触的多样性、侵害数字信息生态的公共性等风险引发学术界关注(Flaxman, Goel & Rao,2016;Fletcher & Nielsen, 2017;Pariser, 2011; Puschmann, 2019)。虽然由于各研究所依托的研究对象或情境不同,这一问题在实证层面表现出相互冲突的结果(陈昌凤,仇筠茜, 2020),但是学术界对上述议题的高度关切折射出两个值得注意的集体潜意识:其一,用户可以有意识或无意识地影响算法决策,该举动的能动效果甚至可能强大至塑造、主导其个人信息环境的程度;其二,“智能算法导致信息环境的碎片化”这一现象令人警觉,而“智能算法未导致信息环境的碎片化”则令人宽慰。
上述两个潜意识在个性化算法效果研究的设计中有如下表现。首先,大量研究将对信息多样性的关切局限于微观信息环境。比如,有研究设计了若干具有不同决策依据的推荐算法,将其与人类编辑推荐的结果进行比较,以探究个性化算法是否降低了信息接触多样性(Moller et al., 2018)。类似地,有的研究基于对用户使用体验的调查,判断个性化算法在多大程度上提供了定制的信息环境(聂静虹,宋甲子, 2020)。这一思路的问题在于,即使算法确实为某些用户呈现了有别于他人的信息,这种“个性化”仍然可能只是有限的、局部的,如果不能将目光上升至宏观信息环境,探究个性化推荐算法在多大程度上推进或阻碍整体的信息多样性,就不能排除微观信息环境中个性化现象的虚伪性。
其次,大量研究将“算法是否导致群体信息同质化”的测量建立在“群体内”与“群体间”信息的对比上(Bechmann & Nielbo, 2018),将二者间的差异作为算法施展效果的表现,而将二者间的相似之处视作算法未施加影响力之下的理所当然。这一思路有两个误区,其一,其对算法运作中“个性化决策”部分的关注超越了对“非个性化决策”部分的关注,后者指算法系统中还存在其他整体性原则或偏向,比如对“流行度”、“权威性”的推崇,忽视这一影响将使研究者相对高估算法的个性化特质对信息环境带来的影响;其二,在关注算法个性化效果时,研究者往往默认个性化算法的目标是为用户提供差异化的信息环境,殊不知个性化算法亦可以被用于消弭异质用户群体之间固有的信息偏好差异,推动群体间的信息环境趋同。事实上,早已有个性化推荐算法被用于提示、补足用户的信息阅读缺口(Nagulendra & Vassileva, 2014),美其名曰“使用户知道未知”(know the unknown)(Tintarev, Rostami & Smyth,2018)。目前尚未有研究证明类似算法是否已悄然被平台用于管理社会集体观念。
综上所述,目前的算法个性化研究视角较为微观,并且忽视了其在推进群体信息趋同方面的潜力,因此未能宏观地回应算法分别在何种程度上导致了信息的趋同与多元,更无法厘清智能时代信息趋同与多元之间的复杂关系。因此,为了更完整地理解算法对信息环境多样性的影响,我们选择将“主流化”视角引入算法“个性化”研究之中。
需要指出的是,作为一个效果研究理论,经典主流化理论的最终落点在于用户认知的改变,但是即便在格伯纳的研究中,媒介内容呈现的偏向性也是探究其受众效果的前提。立足于智能时代,本研究希望对主流化理论做出的探索并非在于从受众端探究算法对于人类认知产生的影响,而是其前提条件——从平台端探究算法的内容呈现机制对于信息环境的影响,即“主流化”偏向和“个性化”特质是否同时存在于经算法筛选的内容中,并揭示“主流化”与“个性化”之间相互作用的机制。我们认为,“主流化”理论浓厚的批判色彩有助于理解智能时代信息传播权力的新运作方式,启发关于个性化算法的社会控制功能的思考。我们提出如下假设:
首先,虽然YouTube致力于为用户提供个性化推荐服务(Davidson et al., 2010),但也有算法研究曾表明个性化因素在智能推荐中的影响是有限的(Nechushtai & Lewis, 2019)。同时,算法偏见相关的研究提示,持特定立场的内容,比如党派偏向(Robertson et al., 2018)、种族偏向(Sweeney, 2013),在算法内容呈现中具有优先地位。我们假设,算法会个性化地为用户推荐与其既有立场相符的内容,这体现在推荐的内容构成和优先性上,二者分别对应着算法在选择(Latzer et al., 2016)和排序(Pan et al., 2007)方面的影响力,但“主流”内容相比“非主流”内容依然具有相对优势:
在搜索结果的构成方面,算法为用户呈现更高比重的与其既有立场相符的视频(H1)。相比没有立场的用户,既有立场为中性的用户的搜索结果构成整体上向“主流”方向偏移(H2)。
在搜索结果的排序方面,与用户既有立场相符的视频更容易获得高排名(H3),但视频的“主流”立场对于提升排名仍然有促进作用(H4),视频播放量、点赞数、评论数、发布时间、作者粉丝数为控制变量。
在YouTube上,关联推荐算法可以基于正在播放的视频给出“下一个播放”的建议,这一算法被此前研究证实具有偏向性(Heuer et al., 2021),其推荐建议还会受到用户既有立场、种子视频立场的影响(Haroon et al., 2022)。我们担忧关联推荐算法也会同时表现出主流化与个性化,即:
相比观看“反主流”立场的种子视频的用户,对于观看“主流”立场的种子视频的用户,关联推荐算法更倾向于为其推荐与种子视频立场一致的视频(H5),上述倾向性的强度因用户的既有立场而改变(H6)。
三、研究对象
本研究将基于算法审计的视角对上述假设进行验证。算法审计(algorithm auditing)指对算法的运行逻辑进行检查,常被用于测量黑箱算法中存在的系统性偏向(Sandvig et al., 2014)。目前,学术界已经使用算法审计的思路揭示了图片搜索算法(Kay, Matuszek & Munson, 2015)、谷歌地图算法(Soeller et al., 2016)、智能美颜算法(陈昌凤,师文, 2022)等智能应用的决策依据及偏向。本研究参考此前研究(Bandy & Diakopoulos, 2020),通过操纵大量用户“马甲”(sock-puppet)开展了基于计算实验的算法审计。
本研究的审计对象为YouTube的搜索算法和关联推荐算法。YouTube是全球最大的视频搜索和分享平台,也是仅次于Facebook的第二大社交平台,每月有超过25亿的活跃用户(Statista, 2022a)。据统计,其拥有超过91个国家和地区的本地版本和80种不同的语言选项可供选择(GMI Blogger,2022)。截至2022年4月,其在14个国家的渗透率超过90%(Statista,2022b)。YouTube允许用户通过平台内嵌的搜索算法主动搜索视频,也会在用户看完视频之后,自动推荐一系列关联视频供用户选择。YouTube的国际影响力和对智能算法的应用是我们选择它的主要原因。
四、数据基础
(一)视频数据库构建
首先,我们使用Python脚本在YouTube上使用“新疆棉”、“维吾尔棉”等相关的简体中文、繁体中文关键词开展搜索,获得结果2352条(不含重复结果)。由于YouTube中的搜索引擎采用模糊匹配规则,不能保证检索结果中的视频题目含有关键词。为保证所获得视频与事件直接相关,我们在检索结果中又进行了一轮关键词的精确匹配,仅保留题目中含有关键词的视频,并且去除重复的视频和竖屏短视频(因为这类视频不具有显式的关联推荐机制),获得999条与事件直接相关的结果。
其次,由于YouTube中的搜索引擎采用模糊匹配规则,我们很难确定其检索结果是否涵盖了研究过程中将遇到的所有该主题相关视频,为使数据库尽可能完善,我们使用自动化方法,逐一打开999条视频的页面,获取其关联推荐中与目标关键词匹配的视频。如果发现有数据库中未收纳的新视频,则将其加入数据库,并重复上述操作,直至完全无新视频出现为止。
最后,我们从上述目标视频页面上抓取了发布时间、点赞数、观看数、评论数、作者粉丝数,完成了相关视频数据库的构建,即获取了用户通过搜索及后续关联推荐可接触到的相关视频(共计1005条)和相关视频元信息。
(二)视频数据编码
我们邀请2组(共4位)训练后的新闻传播专业研究生进行视频立场的编码,每组编码员分工完成全部视频的编码,即每条视频由两位不同的编码员独立编码。视频的立场包括三类,简称为“反主流”、“主流”、“无清晰观点”。“反主流”观点包括:不认可“新疆棉的生产存在问题”,不认可“各国对新疆棉花出口的制裁”;认可“公众及明星对HM等品牌的抵制行动”。“主流”立场包括:认可“新疆棉的生产存在问题”,认可“各国对新疆棉花出口的制裁”;不认可“公众及明星对HM等品牌的抵制行动”。“无清晰观点”包括:只是作为第三方转述某一方的说辞或行动,但不代表认可其观点,或者同时提及两个及以上的事件的新闻汇总,本事件并不是视频的聚焦点。
两组编码员的编码信度较高(Kappa值为0.639),对于出现分歧的视频,我们请两位编码员在讨论后重新编定。最终,在1005条视频中,“反主流”立场的有299条,“主流”立场的有156条,另有512条不表达明确立场,还有38条视频没有获得明确的编码结果因而被排除在后续研究之外(其中29条被编码员认为难以决断,还有9条视频因被限制访问而无法编码)。需要指出的是,虽然“反主流”立场视频比“主流”立场视频多,这一数量分布与“主流”的定义并不矛盾,“主流”并非指数量上的优势观点,而是与统治阶级/权力阶级相一致的观点。
五、实验
(一)实验基础
1.实验账户
根据Google发布的隐私权相关条款(Google,2022),对于未登录状态下的用户,YouTube网站可通过用户浏览器传输的本地配置文件(计算机界通常称其为Cookies)辨别用户的身份,并根据其中名为“VISITOR_INFO1_LIVE”的Cookie对用户实现个性化推荐。考虑到注册大规模的全新YouTube账号不具可操作性,本研究参考此前的算法审计研究的实践(Haroon et al.,2022)和建议(Schmitt et al., 2018),使用大量未登录的用户及其对应Cookie作为开展实验的基础。
2.实验环境
对所有账户的实验操作均基于位于香港的同一台阿里云服务器,使用Ubuntu 20.04版本 64位系统。所有账户在YouTube上的操作依托于经过反监测改进的谷歌浏览器,对目标页面进行虚拟显示。
(二)实验设计
研究设立五个实验组(第1组—第5组)和一个对照组(第6组),每个组包括200个用户马甲,共计1200个用户马甲。实验组(第1组—第5组)用户的立场分为五种,分别为“完全反主流”、“倾向于反主流”、“中立”、“倾向于主流”、“完全主流”,对照组的用户被设定为不具有政治立场。在训练环节,我们通过控制用户历史观看记录来赋予实验组账号不同的既有政治立场;对照组用户不浏览任何视频,保证历史记录为空。在测试环节,我们使对照组和实验组用户分别执行本事件相关的关键词的检索操作,记录检索结果及排序;随后从种子池中随机选定一个视频,获取关联推荐的结果。训练和操作环节均由自动化程序脚本执行并记录,其细节如下:
1.训练账户
我们使每个用户马甲浏览一定数量持不同立场的本事件视频。此前研究(Papadamou et al., 2022)的实验测试发现,当YouTube用户浏览22个视频之后,其获得的个性化推荐将达到非常稳定的状态,在本研究中,我们将每个用户浏览的视频数定为24,因为其是4的整数倍数,这便于配置用户的历史记录。我们使第1组—第5组的每个用户分别观看24个、18个、12个、6个和0个“反主流”立场的视频,以及0个、6个、12个、18个、24个“主流”立场的视频。对照组的用户不观看任何视频。
对于每个用户,24个视频均从上文建立的数据库里随机抽取,其播放顺序被随机打乱。我们使用自动化的方式操纵每个用户马甲,使其点开目标视频进行播放。参考此前研究的操作(Haroon et al.,2022),当视频的进度条显示播放时间超过30秒时,用户将结束本视频的播放,开始播放下一个视频。播放过程中有时会出现广告,根据我们的设置,当“跳过广告”按键出现时,控制程序即点击跳过。我们保存每个用户的Cookie文件,并以用户的ID命名,用于之后的测试环节。
2.测试账户
(1)搜索算法测试
首先,使1000个实验组用户马甲分别加载其在训练环节获得Cookie文件(200个实验组无需进行此操作)。随后,每个用户将用与本事件相关的关键词(与构建视频数据库时使用的关键词相同)进行检索。对于每个关键词,我们仅关注出现在第一页上的、在数据库中被标记为“主流”或“反主流”的检索条目,记录其相对排序、对应的用户和关键词。
(2)关联推荐算法测试
首先,我们构建了一个种子视频池,构建方法获取所有对照组的用户在“搜索算法测试”环节记录的检索结果,识别出其中的42个不同的“反主流”视频和35个不同的“主流”视频,由于这77个视频出现在一个无历史记录用户的检索结果首页,我们认为这些视频属于较为热门、易被用户检索到的本事件相关视频,适合作为用户在关联推荐测试环节的起点(种子视频)。
随后,我们使1000个实验组用户马甲加载上述的Cookie文件(200个实验组用户马甲无需进行此操作)。每个用户从种子视频池中随机抽取一个视频,作为种子视频,获取每个视频右侧推荐列表,将其与数据库比对,获得与本事件相关的视频,如果有多个与本事件相关的视频,选取排序最靠前的记录下来。
六、结果
为验证假设1,我们探索了1000个实验组用户的既有立场与其检索结果构成之间的相关关系,自变量为每个用户立场的主流化程度,由用户观看记录中“主流”立场视频所占的比例表示;因变量为用户检索结果中“主流”立场视频所占的比例表示。线性回归显示二者呈显著正相关,t=14.18,p<0.001,R2=0.22,假设1得到支持。为验证假设2,我们比较了200个持中性立场的实验组用户与200个对照组用户检索若干相关检索词后获得的检索结果,独立样本T检验显示,中性组(M=0.667,SD=0.179)比对照组(M=0.647,SD=0.189)的检索结果中的“主流”视频比例更高,t(3598) = 3.301, p=0.001,假设2成立。(图1 图1见本期第9页)可视化地展示了各组的检索结果构成。上述结果表明,个性化算法使用户获得了更高比例的与其既有立场一致的检索结果,但是这种个性化并不是对称的,以实验组3为例,虽然拥有中性的观看记录,但是相比无观看记录的对照组,算法的推荐结果向主流方向轻微偏移。
为验证假设3和假设4,我们提取出1000个实验用户实施搜索行为之后获得的检索条目,以每个用户的每个检索词为单位,将检索结果的点赞数、评论数、观看数、发布天数、作者粉丝数使用Z-score标准化至[0,1]区间;排名使用Min-Max标准化至[0,1]区间;将检索结果对本事件的态度转为哑变量,1表示“主流”,0表示“反主流”;用户既有立场的主流化程度被操作化为历史记录中“主流”视频的比例(五个组的该变量取值分别为0、0.25、0.5、0.75和1),并将其与视频态度相乘获得二者的交互项,加入模型之中。我们将视频排名作为因变量、其余变量为自变量进行多元回归分析,经共线性诊断之后,在模型中删除观看数、评论数变量。(表1 表1见本期第10页)中展示的分析表明,视频态度、点赞数、作者粉丝数在P<0.001的意义上与视频排名呈显著负相关关系。即视频态度取1(“主流”),视频排名值越小(排名靠前),该发现证实了假设4, 即在个性化推荐中,即使控制播放统计指标,“主流”视频仍然具有显著的排名优势。但是,用户既有立场和视频态度的交互项和视频排名无显著关系,这否定了假设3。结合假设1的结果,我们推断认为这是由于与用户既有立场相同的视频比重整体增加,鉴于检索结果首页的内容容量有限,不一定带来此类内容排名的整体
上升。
为验证假设5和6,我们检查了实验组用户观看种子视频之后经关联推荐算法获得的视频立场,将种子视频立场设为哑变量,1表示“主流”,0表示“反主流”;将用户的主流化立场用观看记录中的“主流”视频占比表示(五个组的该变量取值分别为0、0.25、0.5、0.75和1),将算法是否为其继续推荐与种子立场一致的新视频作为因变量,进行逻辑回归分析。结果如(表2 表2见本期第10页)显示,当种子视频为“主流”立场时,关联推荐算法有更高的可能性推荐与种子视频立场一致的视频,假设5成立;但是用户主流化立场的程度及二者的交互项对因变量均无显著影响,假设6不成立。
七、讨论
(一)结构的“主流化”偏向与有限的“个性化”特性
实验结果展示了平台算法“主流化”与“个性化”之间的张力。在本研究中,我们通过制造视频观看记录的方式赋予用户“既有政治倾向”,以探究个性化算法是否会遵循用户的偏好,以及“主流”视频是否有系统性优势。对搜索引擎检索结果的统计数值显示,在个性化机制的作用下,用户群体搜索得到的信息环境构成会表现出与用户既有政治倾向相符的差异,这表现为与其立场相符的视频比重更高,但是“主流”视频结构性的排名优势仍然存在,个性化并不能逆转或者消除这一趋势。因此,虽然个性化算法看似赋予了用户以能动地改变其信息环境的能力,但是算法“非个性化”决策的影响力仍然存在。在关联推荐算法中,相比观看了“主流”立场种子视频的用户,观看了“主流”立场种子视频的用户更有可能被继续推荐类似观点的视频,这意味着观看了“主流”立场视频的用户更容易被算法推荐困在回音室中。虽然此前研究表明用户立场也对关联推荐产生影响,但是本研究的数据表明,这一规律并不因用户既有立场而改变。以上发现说明,在媒介“主流化”偏向与算法的“个性化”效果的冲突中,尽管信息推荐结果具有鲜明的个性化色彩,主流内容的系统优势仍然存在 。
(二)结构的“主流化”偏向与作为助力的“个性化”特性
除此之外,本研究还发现了“个性化”与“主流化”更耐人寻味的相互关系。在搜索算法中,虽然用户的信息环境构成会因既有政治立场而不同,但是如果以对照组作为参考,这一个性化并不是公平、对称的。相反,当我们对比中性实验组和对照组的搜索结果时,发现前者搜到的“主流”信息量高于对照组。正如文献综述部分所提及的,长久以来,算法研究者忽略了算法个性化除了可以用于针对性地迎合受众需求,也可以用于针对性地引导受众。本研究的发现则证明,平台算法已客观上导致了对本议题感兴趣的群体(即便其立场中性)接触相对更多的“主流”信息,这表明算法的个性化在某些情况下甚至不是对抗算法“主流化”机制的,其本身便是推进“主流化”进程的功能要件。
需要补充说明的是,算法偏向可能来自算法本身的逻辑设计偏差、算法输入数据的偏差和算法运行过程中用户参与的偏差。由于商业算法的黑箱属性,本研究即便能够发现算法决策具有偏向性,也不能认定该偏见一定来自其最初的逻辑设计和数据基础,更不能证明这是故意的偏向设计。由于算法是动态的,其亦有可能是在上线之后被用户使用的过程中发生了偏移,比如,如果用户群体对算法优先推荐的结果不认可,转而点击排名更低的视频,长此以往算法可能会顺应用户群体的行为偏好进行决策调整。
(三)算法平台与传播过程的“主流化”
在电视时代,格伯纳等学者认为媒介的“主流化”表现来源于商业体系驱动的内容生产模式。为了吸引用户以赚取广告流量,媒介内容的模式高度相似,这些集中化生产的内容借由电视被输送至公众的家中,以致于“频道增值,内容趋同”(Gerbner, 1998)。换言之,虽然格伯纳也非常强调电视“说书人”的角色以证明其对公众的巨大影响力,但在解释“主流化”偏向时,其仍然更主要地从“内容生产”的角度以理解信息同质化产生的原因。这也成为“主流化”理论在新媒体时代面临挑战的原因,即日渐多元的信息生产者和日益分裂的受众使“主流内容”在多大程度上存在成为一个有待重新测量的问题(Morgan et al., 2015)。本研究无意于涉入上述争论,而是希望为智能时代的“主流化”探讨提供一个补充视角,强调除了关注“内容生产”的主流与否,也应关注“传播过程”中出现的主流化力量,即当算法平台成为多元信息的传播渠道时,算法的信息中介机制如何敦促用户接触到的信息回归“主流”。
我们认为,算法平台的主流化偏向一方面来自其中介信息传播新规则的能力,这是其推行“主流化”的力量基础。虽然平台常常暗示自己只是中立的信息传递者(Gillespie, 2010),但是其事实上已成为互联网上最重要的可见性来源,决定了信息的可知与不可知,其使“可见”成为对信息生产者的奖励,并将内容降级作为威胁内容生产者的手段(Bucher, 2012; Cotter, 2019),这使其得以管理、规训日趋分散多元的内容生产者。另外一方面,算法的设计逻辑承继了现实社会的文化基因,其决策往往具有结构性的价值偏向,这使其具备推行“主流化”所需的意识形态基础。尽管算法具有“科技”、“客观”等标签的加持,但是算法的逻辑仍为其生产者价值观的程序化表达(Van Couvering, 2007),大量的算法价值观研究亦证明其承袭了社会中固有的不平等关系(Datta,Tschantz,& Datta,2014;Sweeney, 2013),这一现象在新闻业中也有共鸣——对Google新闻的研究证实其复制而非挑战了传统新闻业的内容结构(Nechushtai & Lewis,2019)。
因此,即便新媒体时代的内容生产走向分散,在互联网商业巨头的驱动下,平台的传播权力和价值理念却始终是集中的、强大的。正如培养理论研究者对新媒体时代的理解—— “提供了一个有机相关的合成符号结构,再次为所有人呈现了一个完整的意义世界……是公式化的、仪式化的、重复的”(Gerbner, 1977;Morgan et al., 2015),我们认为在算法时代,上述同质化的媒介世界仍然存在,只不过其生成机制变得更具智能特色——算法平台并不仅仅扮演信息传输管道的角色,而是借由强大的渠道力量操控信息流通规则,在智能生态中维护“主流”意识形态期待的媒介世界。
八、结语
本研究使用计算实验法对世界范围内的代表性算法平台YouTube展开算法审计,与源自电视时代的经典传播学理论“主流化”展开对话。聚焦于算法内容呈现维度,研究探索了算法主流化偏向与个性化推荐之间的关系,认为YouTube平台的智能算法承担起了推进用户信息环境“主流化”的角色,即其结构性地维系了符合数字霸权拥有者立场的信息秩序。算法推荐的个性化虽然存在,但是表现程度受到限制,其非但难以逆转或消除主流化偏向,甚至会在某些情况下助推该现象。我们认为,在探讨智能时代的“主流化”问题时,除了延续对“内容生产”同质性的关注,还应该关注“传播过程”中算法中介机制对“主流”的推进作用。借助对传播规则的掌控力和对社会文化基因的内化,平台及其算法正成为智能时代“主流化”生成机制的重要构成部分。
虽然本研究试图立足智能时代发起围绕“主流化”的理论对话,但是必须要承认的是,本研究只为该问题的探讨打开了一个小小的切口。经典的主流化理论既发现了大众媒介的偏差性内容呈现,也论证了受众长期接触有偏差的信息环境导致的认知偏移。相比之下,本研究的探索仅聚焦于发展该结论的前半部分,即探究以算法为中介的个性化传播对主流内容的过度呈现,但并未证明内容对受众的影响效果。这主要受限于本研究的研究方法,计算实验方法的突破性在于可以模拟用户与算法的交互,使得用户行为偏好可控、千人千面的信息环境可测,但是却不能探究真实人类用户于此环境中的复杂心理和行为机制。
从本质上来说,本研究的对象是算法而非受众,焦点在于内容偏向而非效果。鉴于媒介内容的偏向性呈现可以被视作受众效果的前提条件之一,本研究可以为后续针对真人的主流化效果研究打下基础,后续研究可探讨选择性接触等认知因素作用于该过程所产生的后果,特别是关注公众长期被置于此类信息环境所产生的长期、潜移默化的效果。培养理论及“主流化”并非仅由个别孤立的研究测量得出,而是一个在过去数十年中由大量研究支撑起来的庞大论证体系,本研究只能为其在智能媒体时代的表现做初步探索,该理论的发展及适用性问题有待未来更多研究者的协力探讨。■
参考文献:
陈昌凤,仇筠茜(2020)。 “信息茧房”在西方:似是而非的概念与算法的“破茧”求解。 《新闻大学》,(01), 1-14+124。
陈昌凤, 师文(2022)。 人脸分析算法审美观的规训与偏向:基于计算机视觉技术的智能价值观实证研究。 《国际新闻界》, 44(03), 6-33。
聂静虹,宋甲子(2020)。 泛化与偏见:算法推荐与健康知识环境的构建研究——以今日头条为例。 《新闻与传播研究》, 27(09), 23-42+126。
王茜(2017)。打开算法分发的“黑箱”——基于今日头条新闻推送的量化研究。 《新闻记者》,(09),7-14。
杨洸,佘佳玲(2020)。 新闻算法推荐的信息可见性、用户主动性与信息茧房效应:算法与用户互动的视角。《新闻大学》,(02),102-118+123。
Bandy, J.& DiakopoulosN. (2020). Auditing news curation systems: A case study examining algorithmic and editorial logic in Apple News. Paper presented at the Proceedings of the International AAAI Conference on Web and Social Media.
BechmannA.& Nielbo, K. L. (2018). Are we exposed to the same “news” in the news feed? An empirical analysis of filter bubbles as information similarity for Danish Facebook users. Digital Journalism, 6(8)990-1002.
BucherT. (2012). Want to be on the top? Algorithmic power and the threat of invisibility on Facebook. New media & society14(7)1164-1180.
CookT. D.KendzierskiD. A.& Thomas, S. V. (1983). The implicit assumptions of television research: An analysis of the 1982 NIMH report on television and behavior. Public Opinion Quarterly47(2)161-201.
CotterK. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram. New media & society21(4)895-913.
Datta, A.Tschantz, M. C.& DattaA. (2014). Automated experiments on ad privacy settings: A tale of opacitychoice, and discrimination. arXiv preprint arXiv:1408.6491.
DavidsonJ.LiebaldB.LiuJ.NandyP.Van VleetT.GargiU.. . . Livingston, B. (2010). The YouTube video recommendation system. Paper presented at the Proceedings of the fourth ACM conference on Recommender systems.
Flaxman, S.Goel, S.& RaoJ. M. (2016). Filter bubblesecho chambers, and online news consumption. Public Opinion Quarterly80(S1)298-320.
FletcherR.& NielsenR. K. (2017). Are news audiences increasingly fragmented? A cross-national comparative analysis of cross-platform news audience fragmentation and duplication. Journal of Communication67(4)476-498.
GebnerG.GrossL.Morgan, M.& SignorielliN. (1980). The Mainstreaming of America: Violence Profile. Journal of Communication10-25.
Gerbner, G. (1977). Television: The new state religion? ETC: A Review of General Semantics145-150.
Gerbner, G. (1998). Cultivation analysis: An overview. Mass Communication and Society1(3-4)175-194.
Gerbner, G.& GrossL. (1976). Living with television: The violence profile. Journal of Communication26(2)172-199.
Gerbner, G.GrossL.Morgan, M.& SignorielliN. (1987). Charting the mainstream: Television’s contributions to political orientations. American media and mass culture: Left perspectives, 441-464.
Gillespie, T. (2010). The politics of ‘platforms’. New media & society12(3)347-364.
GMI Blogger. (2022). YouTube user statistics 2022. Retrieved from https://www.globalmediainsight.com/blog/youtube-users-statistics/
Google. (2022). How Google uses cookies. Retrieved from https://policies.google.com/technologies/cookies?hl=en-U.
HaroonM.ChhabraA.LiuX.MohapatraP.Shafiq, Z.& Wojcieszak, M. (2022). YouTubethe great radicalizer? Auditing and mitigating ideological biases in YouTube recommendations. arXiv preprint arXiv:2203.10666.
Hermann, E.Eisend, M.& Bayón, T. (2020). Facebook and the cultivation of ethnic diversity perceptions and attitudes. Internet Research, 30(4)1123-1141.
Heuer, H.Hoch, H.BreiterA.& Theocharis, Y. (2021). Auditing the biases enacted by YouTube for political topics in Germany. In Proceedings of Mensch und Computer 2021 (pp. 456-468).
Kay, M.Matuszek, C.& Munson, S. A. (2015). Unequal representation and gender stereotypes in image search results for occupations. Paper presented at the Proceedings of the 33rd annual acm conference on human factors in computing systems.
Laidlaw, E. B. (2009). Private powerpublic interest: An examination of search engine accountability. International Journal of Law and Information Technology, 17(1)113-145.
LatzerM.Hollnbuchner, K.Just, N.& Saurwein, F. (2016). 19. The Economics of Algorithmic Selection on the Internet. Handbook on the Economics of the Internet, 395.
MollerJ.Trilling, D.HelbergerN.& van Es, B. (2018). Do not blame it on the algorithm: an empirical assessment of multiple recommender systems and their impact on content diversity. InformationCommunication & Society21(7)959-977.
MorganM.& Shanahan, J. (2010). The state of cultivation. Journal of broadcasting & electronic media54(2)337-355.
MorganM.Shanahan, J.& Harris, C. (1990). VCRs and the effects of television: New diversity or more of the same. Social and cultural aspects of VCR use107-123.
MorganM.Shanahan, J.& SignorielliN. (2015). Yesterday's new cultivationtomorrow. Mass Communication and Society18(5)674-699.
NagulendraS.& VassilevaJ. (2014). Understanding and controlling the filter bubble through interactive visualization: a user study. Paper presented at the Proceedings of the 25th ACM conference on Hypertext and social media.
NechushtaiE.& LewisS. C. (2019). What kind of news gatekeepers do we want machines to be? Filter bubblesfragmentationand the normative dimensions of algorithmic recommendations. Computers in Human Behavior, 90298-307.
Pan, B.HembrookeH.Joachims, T.Lorigo, L.GayG.& Granka, L. (2007). In Google we trust: Users’ decisions on rank, position, and relevance. Journal of computer-mediated communication12(3)801-823.
Papadamou, K.ZannettouS.BlackburnJ.De Cristofaro, E.Stringhini, G.& Sirivianos, M. (2022). “It is just a flu”: Assessing the effect of watch history on YouTube’s pseudoscientific video recommendations. Paper presented at the Proceedings of the international AAAI conference on web and social media.
Pariser, E. (2011). The filter bubble: How the new personalized web is changing what we read and how we think: Penguin.
Puschmann, C. (2019). Beyond the bubble: Assessing the diversity of political search results. Digital Journalism, 7(6)824-843.
Robertson, R. E.JiangS.Joseph, K.FriedlandL.LazerD.& Wilson, C. (2018). Auditing partisan audience bias within google search. Proceedings of the ACM on Human-Computer Interaction2(CSCW)1-22.
Sandvig, C.Hamilton, K.Karahalios, K.& Langbort, C. (2014). Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry22(2014)4349-4357.
Schmitt, J. B.Rieger, D.RutkowskiO.& ErnstJ. (2018). Counter-messages as prevention or promotion of extremism?! The potential role of YouTube: Recommendation algorithms. Journal of Communication68(4)780-808.
ShanahanJ.& Morgan, M. (1999). Television and its viewers: Cultivation theory and research: Cambridge university press.
Signorielli, N. (1989). Television and conceptions about sex roles: Maintaining conventionality and the status quo. Sex roles21341-360.
Soeller, G.Karahalios, K.SandvigC.& Wilson, C. (2016). Mapwatch: Detecting and monitoring international border personalization on online maps. Paper presented at the Proceedings of the 25th international conference on world wide web.
Statista. (2022a). Most popular social networks worldwide as of January 2022ranked by number of monthly active users. Retrieved from https://www.statista.com/statistics/272014/global-social-networks-ranked-by-number-of-users/
Statista. (2022b). YouTube penetration in selected countries and territories as of April 2022. Retrieved from https://www.statista.com/statistics/1219589/youtube-penetration-worldwide-by-country/
Sweeney, L. (2013). Discrimination in online ad delivery. Communications of the ACM56(5)44-54.
TintarevN.RostamiS.& SmythB. (2018). Knowing the unknown: visualising consumption blind-spots in recommender systems. Paper presented at the Proceedings of the 33rd annual ACM symposium on applied computing.
Trielli, D.& DiakopoulosN. (2022). Partisan search behavior and Google results in the 2018 US midterm elections. InformationCommunication & Society25(1)145-161.
Van CouveringE. (2007). Is relevance relevant? Market, scienceand war: Discourses of search engine quality. Journal of computer-mediated communication12(3)866-887.
Weimann, G.Weiss-Blatt, N.Mengistu, G.TregermanM. M.& Oren, R. (2014). Reevaluating “The end of mass communication?”. Mass Communication and Society17(6)803-829.
WilliamsD. (2006). Virtual cultivation: Online worlds, offline perceptions. Journal of Communication56(1)69-87.