递归式协商:短视频平台用户与算法的共生与互动
——以“影响者”为中心的民族志研究
■赖楚谣
【本文提要】在社会性层面展开的算法研究中,算法与用户的互动常常被描述为一种“算法控制-用户抵抗”的关系叙事。本研究试图超越这种简化的二元对立叙事,将用户与算法的互动视作一种递归式的协商过程,使对二者关系的描述焦点转移到复杂的共生叙事上。通过对短视频平台影响者的民族志,研究发现和阐释了递归式协商的三个典型子过程:寻求双向理解、培养亲密性与动态调整,并由此揭示递归式协商是如何构成于算法脚本化的功能及影响者的情境实践之间的。递归式协商强调了影响者面对不稳定的技术环境的持续性努力,其意义在于人与算法的互动中产生了意图和行动的协作,并在来回往复之间提供了向前发展的动力。
【关键词】算法 影响者 算法实践 递归
【中图分类号】G206
一、引言
算法应召扫描和重述我们个人、私密、公共和专业生活的日常动态(亚卡托,2021:72),包括搜索、推荐、安全加密、模式识别、数据压缩、自动校正、预测、分析、模拟和优化在内的几十套关键算法正在塑造日常实践(MacCormick,2013:3)。算法在形塑日常生活时的嵌入式本质使之成为社会不可或缺的一部分,同时算法本身也无法与社会世界分离。Beer(2017)因此特别强调,“将算法视为一个技术性的、自包含的对象或是社会过程的独立实体,很可能是一个错误,算法不应被理解为存在于这些社会过程之外的对象”。算法在社会系统中的角色既是情境性的人工制品又是以复杂方式与周围生态系统进行互动的生成过程(Willson,2017)。从这个意义上来说,算法既产生于社会环境,又被编织成结果在社会环境中与其他部分共存。
在社会环境中产生和存在的算法与人们的日常实践密不可分。就算法的技术本质而言,它是为理解和处理日常实践的线上迁移所产生的巨大数据集而被设计和实施的技术架构(Willson,2017)。而从算法作为文化的角度来看,算法又是多重的,不稳定的对象,通过人们参与其中所实施的不同实践生成(Seaver,2017)。此外,通过在算法中介空间中的个体或协作式的实践获得与算法有关的知识已经成为人们理解算法的关键方式(赖楚谣,2022)。算法的生成、目的和理解都无法脱离实践。因此,与算法相关的实践是一个关键的切口,有助于我们进一步探究和阐明现阶段人与算法这一技术系统的关系问题。
沿着以上思路,本研究以算法实践作为探索人机关系的交叉点,分析短视频平台这一类算法结构化的社交媒体中影响者与算法的动态互动过程,包含其中涉及的意图、逻辑和行为。这也提供了更丰富的中国本土化经验以例证、解释和回应算法与人的关系的更多面向。虽然算法与用户的互动常常被描述为一种“控制-抵抗”的关系叙事,但在本研究中,研究者认为用户与算法的互动可以被视为一种递归式的协商过程,这使得对二者关系的描述焦点从一个简化的二元对立叙事转移到复杂的共生叙事上。
二、算法控制与用户抵抗
与最初具有技术本质主义倾向的算法研究相比,后续一系列社会性层面展开的算法研究首先关注到了算法所隐含的权力及其中所体现的控制形式。Lash(2007)认为:“在一个媒体无处不在、代码无处不在的社会中,过去讨论的构成性和规范性规则不再适用,现在我们面临的是第三种规则,即算法的和生成性的规则……权力越来越多地体现在算法中。”Beer(2009)在Lash的基础之上进一步阐释了这种“通过算法实现的权力”(power through the algorithm),指出算法有能力塑造社会和文化形态,并直接影响个体生活。在之后的研究中,Beer(2017)又说明了算法如何通过“物质性干预”和“话语干预”来影响权力分配和运作,前者以选择、分类、排序的形式来影响日常决策的过程,后者以“生产和维护某些真理”的方式来传达某些概念并提供社会权力(Meng,2021)。算法强大的社会力量继而引发了研究者对算法控制风险的讨论和警告,这些风险包括操纵人类行为、减少信息多样性、威胁隐私、持续性监视、挑动歧视和偏见等(Latzer et al.,2016;Danaher et al.,2017)。
在算法控制的视角之下,更多的实证研究补充了上述宏观层面的结论。在对社交媒体的某些特定算法的研究中,研究者们揭示了算法控制的具体形式以及它们在实际人机互动过程中发挥作用的过程。Bucher(2012)对EdgeRank算法的分析解释了平台算法如何赋予人或事件以可见性,并强调算法通过构建这样的可见性制度对参与主体施加一种“不可见的威胁”(threat of invisibility)。在对中国社交平台的研究中,研究者认为算法深刻影响甚至控制了平台管理者和内容生产者的实践(黄淼,黄佩,2020;胡泳,年欣,2022)。Savolainen(2022)和Cotter(2023)聚焦社交媒体算法的“秘密屏蔽”(shadow banning)机制,他们的研究都确认了“秘密屏蔽”以平台中一种有争议的、可能并不存在的内容审核形式存在,而这恰恰反映了平台治理中正在兴起的一种比明确的纪律性控制更广泛的算法的操作性控制。Schellewald(2022)则通过对英国TikTok青少年用户的调查明确了TikTok算法所隐含的情感控制和数字监控机制。此外,在对数字平台劳动的讨论中,我们可以看到更多算法控制的具体形式。算法控制在其中表现为自动化匹配需求和供给(邢朝国,李季垚,2023)、确定价格(Guerra & d’Andréa,2022)、计算评级分数(Basukie et al.,2020)、游戏化以激励参与(Sun,2019)、规划时空要素(束开荣,2022)、刺激消费者需求(Gal & Elkin-Koren,2016)等。
算法控制的叙事强调了算法-人关系中单向的规约,却忽视或低估了另一面向中凸显的用户能动性。因此,后一阶段有相当数量的研究通过聚焦与用户的算法实践来重申用户能动性对于理解算法-人关系的重要性。对于算法实践的既往研究中有相当一部分关注的是以抵抗算法为目的的用户实践。例如,van der Nagel(2018)描述了Facebook用户的两种策略:“伏地魔”(voldemort)式的词语替换(避免提及某些名字或关键字)和截屏;用户通过运用这两种基于解释性理论的策略来抵抗平台的算法屏蔽。还有研究检视Instagram影响者的“参与组”(engagement pods)现象,将其视为一种新兴的抵抗形式,其目的是为了应对平台重新配置的工作条件(O’Meara,2019)。还有研究通过探索网约车平台消费者的实践,建立消费者对抗数字平台算法控制的类型学分析(Ramizo Jr,2022)。针对算法控制涉及的歧视和偏见问题,有研究考察了用户如何通过所谓的“修复政治”行动来产生意外的、替代的输出以纠正算法文化中的缺陷并实施抵抗算法的权力(Velkova & Kaun,2021)。
对于抵抗算法的关注在中国的研究中显得格外突出,这似乎与国内的批判算法研究(critical algorithm study,CAS)传统有关。Sun(2019)以三个中国外卖平台为例考察了“日常劳动中的算法”的使用情况,通过时间性、情感和游戏化等方面来检视外卖员如何理解这些算法;在使用过程中,外卖员又如何创建了自己的“有机算法”来抵抗系统,在某些情况下这些“有机算法”甚至可能颠覆系统。张萌(2022)将算法受众的抵抗战术置于控制社会的技术背景中讨论,并认为在算法的“技术包容”与“参与文化”控制之下,受众的抵抗最终只能是无奈的妥协。洪杰文和陈嵘伟(2022)同样是将注意力集中于移动新媒体用户的算法抵抗实践,在解释用户抵抗算法的可能和动因基础上,将用户的抵抗视作是具有算法治理意味的引导策略。另有围绕用户算法抵抗的量化研究通过考察青少年在短视频平台的日常使用过程中的抵抗心理和行为反应,解释了算法抵抗行为的实施是在理性与非理性交织的行为选择下进行的(陈阳,吕行,2022)。
尽管日常抵抗(德塞托,2018)有助于解释算法与人之间不对称的权力关系,但对算法和用户互动的讨论却也因此常常陷入“算法控制-用户抵抗”的简化二元关系叙事的窠臼,进而忽视了在用户与算法的具体情境接触过程中涌现的人-算法关系的复杂本质。也就是说,算法无法直接导致确定性的行为(Cotter,2019)。因此,与上述“控制-抵抗”的关系叙事相对,本研究基于对短视频平台中的影响者的民族志质疑了这样一种观念:当人们将行动与决策的自主性让渡给算法系统时,算法就开始对人实施一种强大且无处不在的控制;当算法提供的体验与人们的预期发生偏差时,人们会对算法实施底层的抵抗战术。
三、算法结构化社交平台中的影响者
“社交媒体影响者”(social media influencer)实际上是一种新型的互联网微名人(micro-celebrity)身份,指那些通过更新以视听内容为基础的帖子与其他用户保持互动联系并在社交媒体上积累了相对大量关注者(follower)的用户(Senft,2008;Guthrie,2016)。“微名人”的概念是相对于广播电视时代的“传统名人”或“主流名人”(mainstream celebrity)(Djafarova & Rushworth,2017)而言的,而“影响者”概念则是在“微名人”的基础上发展的,但更强调他们对自己的工作描述和实践文化(Abidin,2021a)。影响者主要通过在社交媒体上的自我表达来吸引关注者,进而通过与关注者的亲密互动来维持可访问性、可信度、可模仿性及相关性(Abidin & Ots,2015)。
而在算法结构化的社交平台背景中,作为平台核心技术性架构的算法通过分配可见性和注意力对影响者施加关键作用。算法结构化的社交平台通过用于搜索和首页布局的个性化和社交算法,以多种方式构建和塑造可见性机制(Burgess & Green,2018:53)。平台中成功的高度可见指标,如粉丝数等,激发了影响者争取尽可能多的受众的竞争(Marwick,2015)。由算法驱动的短视频平台可以视作算法结构化社交平台的典型。在短视频平台中,影响者的作品能否被观众观看、认可和接受实际上取决于“平台的注意力规范和算法偏好”(Abidin,2021b)。从这个意义上来说,影响者获得的可见性和注意力的资源实际上都经由算法分配,而在短视频平台中,影响者能获得的财务收益又通常取决于获得可见性与注意力的多少。因此,影响者感到有必要了解平台算法如何工作并对其做出反应以增加可见性、获得更多的关注者并最终取得成功(Bishop,2019;Cotter,2019;Duffy,2020)。短视频平台的算法对影响者主体性施加作用的方式就是借由提升可见性的承诺来引导他们的实践以实现他们的主要目标:增加经济收益。
与既往的很多算法研究中将普通用户作为研究对象不同,本研究将算法结构化平台(主要是短视频平台)中的影响者作为考察的经验主体,这是因为:
其一,算法作为一种“体验技术”(Blank & Dutton,2012),人们需要通过“做”而“知”。理解算法并做出回应的最强预测因素是用户对算法的先前体验:包括使用频率和使用广度(Cotter & Reisdorf,2020)。相比普通用户,影响者作为活跃用户与平台算法的接触频率更高,所使用的涉及算法的功能范围也更广,因此对于算法的理解更深入,在此基础上所实施的实践也更丰富和系统化。
其二,和普通用户不同,影响者严重依赖算法推广其内容以保持可见性,这需要影响者具备与算法有关的知识和实施相关算法实践的能力。他们必须对算法保持高度的敏感,并适时地做出回应以保证他们能够获得可见性和注意力。由此,他们必然比普通用户更深地卷入与算法的纠缠(entanglement)之中。
其三,既有研究描述的普通用户的算法实践通常是分散的异质个体的行动,而在实际经验中,影响者们已经以多种方式实现了有效连接,组建了各种影响者社群或加入专业化的“工会”(Liu et al.,2021)、MCN(Multi-Channel Network)机构等,在这些集体中他们共享算法知识,维持了持续的、富有成效的知识建构过程(赖楚谣,2022),因此针对影响者的研究更有可能拓展与算法有关的知识和实践的社会维度。
在传者与受者界限模糊,用户身兼内容提供者、内容消费者等多重身份角色的背景下,影响者不仅可以被视作是平台用户的代表,通过对他们的考察还将拓展对于算法实践及用户-算法关系的认识维度,丰富和补充因研究对象在算法技术使用的频率、广度、深度、目的等方面的差异,而体现的不同特点。
在与以往的算法研究和影响者研究的学术对话中,本研究通过对短视频平台影响者的民族志试图揭示递归式协商过程是如何动态地构成于算法脚本化的功能(Akrich,1992)及其影响者的策略性实践之间的。具体来说,这需要解释以下几个相互关联和递进的研究问题:在算法结构化的短视频平台中,影响者和算法系统如何寻求和实现相互的理解?在相互理解的基础上,影响者们如何投入到与平台算法的策略性合作上,形成与算法的协商过程?这种协商过程在递归循环的背景中是如何动态地展开的?
四、研究方法
本研究使用的材料来自针对短视频平台(主要是抖音、快手)影响者与算法的一个民族志调查项目。总的来说,这个项目整体关注的是影响者在日常生活中的内容生产实践以及他们如何与平台算法进行互动。研究者在抖音和快手平台进行了为期12个月的数字民族志研究。在此期间,研究者获取了一部分研究对象并保存了其他相关的在线材料(在线讨论、视频、直播、图片和文字等)。研究者还在影响者聚集的具有代表性的短视频直播村,主要是浙江省义乌市北下朱村和江苏省连云港市海头镇,进行了实地民族志,以观察和了解影响者的线下日常实践。研究者选取了线上和线下民族志中接触到的45位影响者进行了0.5小时至3.5小时的半结构式访谈。半结构访谈法的灵活性和开放性(Edwards & Holland2013)能够更大程度地引出影响者算法实践的复杂性和情境性。访谈的影响者在短视频平台中进行创作的时间均超过3个月,粉丝数均超过1万人,目的是保证其符合对影响者的量化数据指标的界定(Abidin,2021a),同时也是因为对算法的感知、理解和互动都需要一定的创作时间作为基础。
此外,为了进一步补充短视频平台的算法技术结构和逻辑,研究者对短视频平台公司的技术人员进行了深度访谈,并且广泛搜集了短视频平台公司的公开资料(包括公开演讲、网站信息和公开出版的书刊、数据报告和研究报告等)、媒体报道、咨询公司的分析报告、专利授权文件、技术性社区博客,通过对这些多种来源的材料进行三角验证,提升分析的准确性。
五、递归式协商
接下来的主体内容将从人与算法的耦合系统出发,分析影响者与算法的递归式协商的三个典型子过程:寻求双向理解、培养亲密性与动态调整。双向理解是递归式协商得以实现的前提和基础,培养与算法的亲密关系则进一步解释了递归式协商的构成方式,动态调整最终说明了递归式协商的具体运作。
在本研究中,三个子过程围绕影响者的策略性实践和算法脚本化的功能展开,具体来说,第一节以短视频平台推荐算法系统的用户理解和影响者的逆向工程实践为例,说明用户与算法之间双向理解的实现及其中反映的动态性质;第二节以影响者的“养号”与“蹭热点”实践为例,说明抵抗算法之外的影响者与算法的策略性合作,进一步论证了其本质是在人机交互中培养和维持与算法的亲密性;第三节以“拉时长”与“卡直播间”为例,展现在递归循环的背景中影响者与算法之间的动态调整过程,反映了其中相互校准的关联性和永久的不稳定性。
(一)寻求双向的理解:推荐算法的用户理解与影响者的逆向工程实践
短视频平台普遍使用的推荐算法是信息过滤算法的一种子类,它试图通过预测用户对内容的偏好来进行信息的过滤和推荐。虽然不同平台的具体算法在技术细节上存在差异,但是它们从技术逻辑上来说都可以视作一种基于用户理解和视频理解进行的关系学习。因此可以说,实现对用户的精准理解是短视频平台推荐算法系统最关键的目标之一。
用户理解涉及一整套结构化的流程。平台算法首先以两种方式获取用户信息:一是用户主动提供,二是机器捕捉采集。主流的推荐算法获取并输入到系统模型中的用户信息主要有以下几种:
(1)用户属性:人口统计学信息,包括年龄、性别、职业、地理位置信息等;设备信息,包括所使用设备的品牌、价格(推断收入水平)、IP地址(推断实时位置)、使用的网络类型(移动网络、WIFI)等;社交网络信息等。
(2)用户主动输入的信息:包括用户在搜索中输入的关键词、用户反馈的信息、对推荐对象的喜好程度等。
(3)用户的浏览行为和浏览内容:包括浏览次数、频率、停留时间以及浏览视频时的操作(点赞、收藏、转发、评论)等。
获取到的用户信息通过数据化过程被转化为可以量化的数据并通过标签化过程提取特征以形成用户档案(user profile)。系统在用户档案的基础上建立用户模型向用户推荐内容。而向用户推荐内容又将会获得用户反馈,这其中包含可能的用户兴趣需求变化。反馈作为新的用户信息重新输入到用户模型中,促成了用户模型的迭代(见图1)。因此,推荐算法系统的用户理解绝非一种本质化的、静态的理解,它是建立在与用户的实时交互基础上,经由数据化和标签化转化和抽象的动态理解过程。
在人与算法的耦合系统中,寻求理解并不是单向的算法的目标,在另一个面向上,影响者也在积极地寻求对算法的解释。影响者楚明在抖音平台中已经持续创作了3年,目前他的抖音账号已经拥有超百万的关注者。当谈起在抖音平台中获得成功的经验时,楚明说:“其实成功的秘诀就是一直研究算法,就是要搞清楚‘流量密码’。”楚明所说的“研究算法”正指向影响者们为收集和评估与平台算法相关的经验证据所实施的一系列实践。由于算法内部缺乏透明性(Chun,2011;Pasquale,2015)以及结构上的异质性(Seaver,2019),影响者们通常很难理解有关算法的技术细节,算法系统的技术性内部对于他们来说基本是不可知的。同时,尽管主要的短视频平台都强调了在官方的创作者指导账号和创作者平台中公开的算法信息可以增进影响者们对算法的普遍理解,但平台的实际状况却指向了相反的方向,官方公开披露的算法信息仍然十分有限,并常常遭到影响者们的质疑。因此,影响者们依赖对算法进行研究以验证算法想象(algorithmic imaginary)(Bucher,2017)的准确性,就像楚明所说:“在我有这样的想法的时候,我只有通过自己去试才能知道算法到底是不是这样。”
这种实践可以被视作一种非正式的逆向工程(reverse engineering)实践。逆向工程原指通过严格的检查,借助领域知识、观察和推理来阐明系统的技术参数的过程,以挖掘该系统如何工作的模型(Diakopoulos,2014)。影响者们的实践并不符合逆向工程的严格定义,他们通常通过检查输入算法的数据和产生的输出来推测算法的“配方”(recipe)是如何组成的以及它们的功能(Kitchin,2017),其中缺乏严格的控制变量和模型建构。但在作用逻辑上,二者都是基于反编译的思路发展的,因此可以说,这些影响者的实践是一种非正式的、粗略形式的逆向工程实践,其目的是获得经验性的证据以便将算法的规则转化为可解释的人类知识形式。
影响者们对平台可见性商业化功能的利用提供了典型的例子说明他们如何策略性地利用算法预设的功能来理解算法。一种在影响者间流传的推测和验证算法可见性分配机制的方法是“买流量”,即使用“DOU+”或“快手粉条”,为发布的内容购买平台出售的临时修改算法,以获得更多可见性的机会(Meng,2021),再根据这些可见性商业化工具反馈的数据报告来推测付费对算法的影响机制。另一种利用可见性商业化功能的方法是将其作为试探算法可接受行为边界的工具。在短视频平台公开的审核规则之下,实际操作中平台算法执行的是另一套更严密的可见性限制规则,通常是非公开的,以“限流”、“封号”等流量惩罚形式发挥作用。影响者余文和她的影响者朋友们介绍了利用DOU+来检测作品是否被算法限流的方法:
因为具体它(算法)怎么过滤我们也不太清楚,有些帖子莫名其妙就被限流了,我们也不知道是出了什么问题,那我们怎么办呢?我们就会用DOU+来试试看。比如说在DOU+买一点(流量),有些帖子DOU+是不会让你买的,会跳出那个提示说这个视频不能买(流量),审核不通过。那就说明这个帖子有问题,那就把它隐藏掉。(余文)
上述例子说明在算法与影响者构成的反馈循环回路中寻求理解的过程是双向的。一方面,推荐算法系统通过数据化过程转化用户自身及其行为,再通过标签化过程提取用户特征并建立用户档案,最终形成用户模型以实现理解用户的目的;另一方面,影响者也在通过非正式的逆向工程实践推测平台算法的技术参数与运作机制,以实现理解算法的目的。双向理解是递归式协商的基础性过程,人与算法系统都在通过主动转化来创造人机对话的符码,由此人与算法的沟通才有可能促生。
(二)培养与算法的亲密关系:“养号”与“蹭热点”
在相互理解的基础上,影响者们投入与平台算法的策略性合作中,表现为通过培养一种与算法的亲密关系来获取可见性和注意力,以达至稳定或增加经济收益的目标。Galloway(2006)称“当人们使用一种算法时,他们是在内化算法并与之亲近”,这提示我们在抵抗之外,还存在更多形式的算法实践。影响者们的这些算法实践体现了依赖自身创造力和技能来利用或适当利用算法技术所提供的支持(Savolainen & Ruckenstein,2022)的方式,被影响者们称为“养号”和“蹭热点”的本土化实践提供了具有代表性的解释案例。
“起号”是影响者们在短视频平台中进行创作的起点。一般来说,普通的平台用户只需要完成账号注册过程就是“起了一个号”,但是对于影响者来说,从创立账号之初就需要策略性地配合算法的预设功能,以增加成功的可能。在“起号”阶段,为了保证甚至增加预期的可见性,影响者们会利用算法的标签化原则来尽量塑造一个更可能成功的账号。这种配合算法标签化过程的应对实践被影响者们称为“养号”,通常是指同一个用户同时注册和运营许多个短视频账号。“养号”的情况在影响者中相当常见,研究者在田野中接触到的主播超过一半都有“养号”的经历,他们养号的数量从几个到几十个不等,有些机构甚至会同时养几百个账号:
我以前在快手开始(创作)的时候养了六个账号嘛,后来做了好几百万粉丝。(唐林)
抖音上我养了几十个号,几十万粉丝的好几个。(周鹏)
“养号”通常需要预先设计和实施有倾向性的观看行为以形成特定的账号偏向,使算法能够给这些账号打上相应的用户标签。在账号被打上预期的用户标签之后,影响者们将在各个账号中发布视频内容。随后,他们会比较这些账号的数据情况(包括播放量、粉丝数、点赞量、评论数等),选出其中数据反馈较好的账号长期运营。影响者们认为通过“养号”这样符合算法逻辑的方法可以筛选出平台算法所偏好的作品,账号也将因此更容易获得可见性,并最终实现将平台中的可见性优势转化为增加经济收益的目标。
另一种被影响者称为“蹭热点”的算法实践针对的则是平台算法对超级流行趋势(super trends)进行优先推荐的规则。短视频平台的算法系统通常都会将实时的“热点”作为推荐所依据的重要指标。根据短视频平台的技术管理人员张政的说法,“热点”相较其他内容会获得更高的推荐优先级。也就是说,与“热点”相关的作品或直播将获得算法分配的额外的可见性。影响者们敏锐地捕捉到了“热点”对于获得可见性奖励的重要性,“蹭热点”就在这样的背景中应运而生。在短视频平台上,“蹭热点”是指创作与实时“热点”相关的视频或直播以获得更高的算法推荐优先级。
与新闻行业的分类类似,平台中的“热点”可以分为可预见的“热点”和突发性的“热点”。可预见的“热点”包括节日、纪念日、大型赛事活动等,突发性的“热点”泛指那些无法预见的,引起广泛关注的事件。摄影领域的影响者苏田将日常创作与“蹭热点”紧密地联系在一起:
我们做这行嘛,肯定是要蹭热点的。首先,所有的节日都是要蹭的,比如说母亲节、父亲节、儿童节这些节日。第二,就是一些热门的事件,比如说最近某个明星拍了一组什么照片还挺好看的,那我就要赶快讲讲,“他这个照片怎么拍的我们也可以拍,或者他这个照片怎么修图的,我来给大家分享分享”。……平时要创作的话,我也会先去看看这个热门(话题)榜,看看最近有没有热点能够绑定或者能够关联上。(苏田)
“蹭热点”为那些缺乏粉丝基础和社会资本的影响者们提供了在平台中快速增加可见性的有效途径,但在关于“蹭热点”的媒体话语中,这种算法实践常被描绘成盲目的、短暂的、为了博得眼球而无所不用其极的行为。具有显著道德偏向的话语忽视了“蹭热点”实际上是影响者通过创造性利用算法可见性机制以增加收益的行之有效的方法。这样的方法建立在与算法紧密配合的关系逻辑之上,影响者不是将算法作为需要战胜的对手,而是将其视为需要建立紧密协作的伙伴,以不断提供行动反馈的方式强化算法的预设机制。
与“控制-抵抗”的叙事截然不同,其实不仅仅是影响者在尝试培养一种与算法的亲密关系,算法也在试图建立更亲密的人机关系。算法反馈循环的实现不仅仅是为了治理和安排社会行为,除了“硬性的”控制目标外,“更软的”目标是建立更亲密的人机关系(Ruckenstein & Granroth,2020)。影响者的创作是短视频平台公司赖以生存的最重要的资源,平台公司的目标与其说是利用算法技术实现对用户的规训和控制,倒不如说是经由提供有效连接,参与他们的日常生活,激发创作能力(快手研究院,2020:6-9),促成各种形式的消费以转化为实际的经济效益。所以,一方面平台公司将建立与用户的亲密关系的目标具体化为技术细节封装在算法交互系统之中,另一方面影响者通过将“养号”、“蹭热点”一类试图与算法建立亲密关系的实践融入到人机协同的递归算法系统中,二者在人机交互中有意识地、系统地培养和维持一种算法的亲密性(Savolainen & Ruckenstein,2022)以促进互惠的(再)协商过程。
(三)影响者与算法系统的动态调整:“拉时长”与“卡直播间”
影响者们策略性地实施算法实践的过程提示我们,当人们使用一种算法时,他们的行为方式在参与过程中被巧妙地重塑,但与此同时,机器学习算法本身也取决于它从用户那里接收到的输入。因为机器学习的机制决定了用户的数据反馈输入会对算法的输出产生影响,算法会因为暴露于持续增加的数据集而不断发展和变化(Introna,2016)。也就是说,人们的算法实践不仅受算法的影响,还能够反过来影响最初帮助生成这些反应的算法,因此,在实际情况中,用户在塑造算法方面也发挥着生成性(generative)作用(Bucher,2017)。用户与算法的协同作用使它们共同加入反馈循环回路之中,也就是说,算法会对人起作用,而人也会对算法起作用,同时这种相互作用又叠加进入下一轮的人与算法的交互之中,促成二者的迭代更新,进而又形成新的相互作用模式,由此不断循环递进。这就是算法的递归性,它意味着“用户在行为上参与塑造他们自己的信息访问条件”(Gran,Booth & Bucher,2021)。
上一节已经说明了以实现共赢为目标的影响者与算法之间的(再)协商,而直播村中影响者们的“拉时长”和“卡直播间”实践则说明这种协商过程是在递归循环的背景中动态地展开的。2020年上半年,抖音瞄准了直播电商领域广阔的商业前景和盈利可能,从而开始在这一领域投入大量资源进行扶持。商业战略的调整经由算法传导至影响者,这一时期抖音算法鼓励影响者们直播卖货,并依据直播时长对其进行额外的可见性奖励。在这样的背景下,影响者们纷纷实施他们称为“拉时长”的应对实践,即尽可能地保证每日的直播时长。这一时期,直播村中流传着一种说法,“只有直播时长拉够才能有流量”。有些主播甚至采用了“录屏直播”、“录音直播”等方法来“拉够直播时长”。
单纯的“拉时长”忽视了与直播间观众的有效互动,创造了“虚假的”直播时长数据,因此平台很快调整了算法推荐的预设功能。根据影响者方杰的说法,“现在抖音的算法和那时候完全不一样了,去年单独挂直播、拉时长就可以了,现在这样做就肯定不行”。平台算法不再将直播时长作为单一的评估数据指标,而更强调“有效直播”,算法将一定时间内直播间的互动数据和销售数据的表现纳入评估的数据依据中,以三者的综合情况分配可见性。直播村中的影响者们很快察觉到了算法的变化,如前所述,通过逆向工程实践与信息共享,他们共同解读了算法的调整方案。基于对调整后的算法的解读,他们实施了一种被称为“卡直播间”的针对性策略。“卡直播间”指依赖“憋单”、“频繁上下播”等方法组合将直播间推上直播推荐页或直播广场中。一位影响者张奇描述了“卡直播间”的操作方法:
我们卡直播就是先“憋单”主推产品,下单完了以后,大部分人就跑了。其实这时候能购买的(粉丝)都买了,一般(直播间)会剩个几百个人,我们再卖点其他产品,人就掉的差不多了。这时候我们立马强制下播,再上播,直到卡到直播广场流量为止,然后再憋单,再卖,就这样来回卡。(张奇)
影响者通过类似于优惠促销的“憋单”方式促使直播间观众主动制造互动和销售数据,之后又以直接关机(或使用其他强制离线的方法)再上线的方式制造一种因技术故障而造成的直播中断的假象。这种假象会导致算法无法判断主播是否下播,因此账号会一直显示直播状态,从而实现拉长直播时长的目的。同时按照抖音算法的规则,重新上播的直播间又会获得新一轮的流量推荐。由此,“卡直播间”取代了“拉时长”作为影响者们所公认的应对调整之后抖音算法的有效方式。
但在研究者将要结束在直播村的田野时,“卡直播间”的方式似乎不奏效了,抖音算法识别了频繁上下播的那些账号,并限制了这些账号在平台中的可见性。也就是说,通过捕捉一段时间内的行为数据输入,平台算法再一次进行了调整。这也意味着影响者们又需要再次寻求对调整后的算法的解释,并针对性地实施新的应对实践。直播村中影响者们的例子代表了一种平台工作者常见的状态,他们通过实践密集地收集和获取可能有用的信息,随时准备调整其日常工作(Sharma,2011)以重新校准不稳定的算法系统。但同时,算法也在随时根据用户反馈迭代更新自身以实现与用户的校准。
在对影响者的考察中,研究者发现他们所实施的大量算法实践变化速度非常快,可以说,长期行之有效的算法实践几乎是不存在的。直播村中的影响者每隔半个月左右就需要变换一批算法实践以应对不断迭代的算法,而这种影响者们快速应对的算法实践又加速了因输入数据变化而更新的算法的变化,由此算法与人共同构成的循环反馈回路处于一种永恒变动的不稳定之中。
六、结论与讨论
算法作为人类和技术代理的独特整合(Napoli,2013),已经导致了社会实践的根本性变化(Van Dijck & Poell,2013)。在用户与算法的情境性接触的背景中,本研究通过聚焦影响者的算法实践和算法的脚本化功能勾勒了人机之间的递归式协商过程。递归式协商建立在用户与算法双向理解基础之上,这其中算法和影响者都在主动进行实时交转,创造对话可能,并指导后续的实践。继而,与批判视角下的抵抗实践相对,本研究中的影响者们在理解算法的基础上试图通过“养号”、“蹭热点”等实践培养一种与算法的亲密关系,来协商平台可见性的弹性空间,以达成增加或稳定收入的目标。同时,这种对亲密性的培养并非仅仅存在于用户针对算法的实践中,平台公司基于商业考虑也试图借助算法培养与用户的个性化和基于情感的连接。出于共同的亲密意愿,二者有意识地构成了促进互惠的(再)协商过程。而这样的(再)协商过程是在用户与算法的递归反馈循环回路中展开的,关涉用户与算法持续性的动态调整。在平台算法不断调整可见性分配机制的同时,影响者们也在不断地校准新的算法规则并调整他们的算法实践。在一个递归的反馈循环中,前述这些影响者所实施的算法实践都会作为行为数据重新输入到算法之中,对算法的调整施加生成性作用,更新之后的算法又将输入汇总转化为输出反馈给影响者。在这个意义上,算法和影响者之间构成了递归式的协商。
算法系统的递归性意味着由于算法基于规则的本质和泛化的推动力,维持与算法的亲密性需要用户权衡算法反馈与其他定义自身的方式(Savolainen & Ruckenstein,2022)。影响者的算法实践展现了他们如何根据自身的目标和感受来协商平台算法的可见性规则。算法计划的或脚本化的功能无法捕捉具体语境和想象力,例如本研究中出现的“憋单”和“强制关机造成技术故障的假象”,影响者会在实践中补充它们。协商的意义就在于这些人与机器的互动中产生了意图和行动的协作,并在来回往复之间提供了向前发展的动力。
超越“控制-抵抗”的叙事并不是否认算法在社会治理中施加的强大控制力和用户所实施的抵抗战术对反抗算法霸权的重要意义,相反,研究者认为用户的抵抗实践意味着对算法的运作结果与预期发生偏差时所触发的反应性和保护性的行动,代表了理解算法与人关系的关键性维度。但“控制-抵抗”的叙事拉平了多元的算法力量和用户实践的丰富性和复杂性,简化的二元对立遮蔽了用户与算法递归式协商过程中涌现的更多复杂关系的可能。正如技术哲学家西蒙栋(2016:162)所言:“文化和技术、人与机器之间的对立关系是错误、毫无根基的,是无知与仇视的结果。它躲在轻便的人文主义(facile humanism)之后,遮蔽了富于人类的努力和自然的力量的现实。”审视日常生活和文化系统包裹的技术对象以及人们微小但富有意义的技术实践,有助于我们在当下境况中重新构想算法与人的关系是如何、应该如何的问题。
同时,多数关注用户抵抗战术的研究所描述的算法实践,不论是获得式的还是防御式的(洪杰文,陈嵘伟,2022),不论是零星的“修复”(Velkova & Kaun,2021)还是模式化的常规参与行为(Abidin,2021b),都是截取用户与算法互动过程中的一个偶然片段,或是将其视为偶然片段的惯常重复。但递归式协商的叙事中强调的是影响者积极处理与算法之间关系的不断调整的、螺旋式发展的算法实践,它代表了用户面对不稳定的技术环境的持续性努力。
在最近的算法研究中,有学者提出“双向驯化”(李锦辉,颜晓鹏,2022)或是“互构”(顾楚丹,杨发祥,2023)的概念来论述算法和用户之间的互动和关系。这两种框架有效地解释了算法与用户之间的关系并非相互独立且对立的,而是相互纠缠和依存的。虽然这两种框架都提及要以“动态的”或“持续性的”视角来解释算法与用户之间的关系,但实际上这些研究并未能远离静态的描述和分析,或并未对算法和用户互动中的动态性质提供足够充分的解释。也就是说,它们尚未充分说明这种动态性和持续性在经验层面是如何体现和发展的。而递归式协商过程以算法实践为交叉点,透过本土化的经验材料例证和解释了动态的协商何以成为可能以及如何运作等问题,也进一步阐明了递归式协商中隐含的人机关系的新面向——一种基于亲密性的共生关系。
此外,本研究也存在一定的局限性:其一,对于影响者和算法的观察集中在一个特定时段内。但鉴于递归式协商的动态性质,更长时间的纵向田野研究(van de Ven & Huber,1990)将会更有助于记录和解释递归式协商的过程如何随时间演变,其中又有何新发展。这可以进一步在时间维度上将对人机交互和人机关系的理解嵌入到数字社会的结构化转型过程中。其二,如前文所述,对整个用户群体而言,影响者有其特殊性,短视频平台也只是一类具有代表性的算法结构化平台,因此,本文所得出的结论是否在其他语境内适用还需要更多相关实证研究的验证。未来的研究需要探索人机交互发生的具体语境和不同的参与性主体的特性。■
注释:
①综合了抖音创作服务平台和快手创作者服务平台的描述,参见:https://creator.douyin.com/和https://cp.kuaishou.com/profile。
②“录屏直播”是指在直播中重复播放预先录制好的录屏内容以充当直播的内容,“录音直播”与录屏直播类似,以预先录制好的音频内容充当直播的内容。
参考文献:
陈阳,吕行(2022)。控制的辩证法:农村青少年的短视频平台推荐算法抵抗——基于“理性—非理性”双重中介路径的考察。《新闻记者》,(07),71-87。
顾楚丹,杨发祥(2023)。驯化抑或互构——社交平台“数字灵工”的算法实践。《探索与争鸣》,(05),87-99+179。
洪杰文,陈嵘伟(2022)。意识激发与规则想象:用户抵抗算法的战术依归和实践路径。《新闻与传播研究》,(8),38-56+126-127。
胡泳,年欣(2022)。自由与驯化:流量、算法与资本控制下的短视频创作。《社会科学战线》,(06), 144-165+282。
黄淼,黄佩(2020)。算法驯化:个性化推荐平台的自媒体内容生产网络及其运作。《新闻大学》,(01),15-28+125。
(法)吉尔伯特·西蒙栋(2016)。技术客体的存在形式(秦琳译)。载张一兵主编,《社会批判理论纪事(第8辑)》。南京:江苏人民出版社。
(意)科西莫·亚卡托(2021)。《数据时代:可编程未来的哲学指南》(何道宽译)。北京:中国大百科全书出版社。
快手研究院(2020)。《被看见的力量:快手是什么》。北京:中信出版集团。
赖楚谣(2022)。“算法的社会性知识”:短视频内容创作者的算法解释与知识的集体建构。《国际新闻界》,(12),109-131。
李锦辉,颜晓鹏(2022)。“双向驯化”:年轻群体在算法实践中的人机关系探究。《新闻大学》,(12),15-31+121-122。
(法)米歇尔·德·塞托著(2015)。《日常生活实践1:实践的艺术》(方琳琳,黄春柳译)。南京:南京大学出版社。
束开荣(2022)。构建数字劳动的物质网络:平台规训、算法协商与技术盗猎——基于“送外卖”的田野调查。《新闻与传播研究》,(09),39-58+126-127.
邢朝国,李季垚(2023)。代驾司机数字劳动不稳定性的算法形塑机制及其主体应对。《中国青年研究》,(07),49-56+14。
张萌(2022)。从规训到控制: 算法社会的技术幽灵与底层战术。《国际新闻界》,(1),156-176。
AbidinC. (2021a). From “networked publics” to “refracted publics”: A companion framework for researching “below the radar” studies.Social Media+ Society7(1)1-13.
AbidinC. (2021b). Mapping internet celebrity on TikTok: Exploring attention economies and visibility labours. Cultural Science Journal12(1)77-103.
AbidinC.& OtsM. (2015). The Influencer’s dilemma: The shaping of new brand professions between credibility and commerce. Presented at the AEJMC 2015Annual Conference, San FransiscoCA, August 6-9.
AkrichM. (1992). The de-scription of technical objects. In Bijker, W. E. & LawJ. (Eds). Shaping technology, building society: Studies in sociotechnical change (pp. 205–224). Cambridge: MIT Press.
Basukie, J.Wang, Y.& Li, S. (2020). Big data governance and algorithmic management in sharing economy platforms: A case of ridesharing in emerging markets. Technological Forecasting and Social Change, 161: 120310.
BeerD. (2009). Power through the algorithm? Participatory web cultures and the technological unconscious. New Media & Society11(6)985-1002.
BeerD. (2017). The social power of algorithms.Information, Communication & Society20(1)1-13.
BishopS. (2019). Managing visibility on YouTube through algorithmic gossip.New Media & Society21(11-12)2589-2606.
Blank, G.& Dutton, W. H. (2012). Age and trust in the Internet: The centrality of experience and attitudes toward technology in Britain.Social Science Computer Review,30(2)135-151.
BucherT. (2012). Want to be on the top? Algorithmic power and the threat of invisibility on Facebook.New Media & Society14(7)1164-1180.
BucherT. (2017). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms.Information, Communication & Society20(1)30-44.
Burgess, J.& GreenJ. (2018).YouTube: Online video and participatory culture. New Jersey: John Wiley & Sons.
ChunW. H. K. (2011). Programmed visions: Software and memory. Cambridge: MIT Press.
CotterK. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram.New Media & Society21(4)895-913.
CotterK. (2023). “Shadowbanning is not a thing”: Black box gaslighting and the power to independently know and credibly critique algorithms. InformationCommunication & Society26(6)1226-1243.
CotterK.& Reisdorf, B. C. (2020). Algorithmic knowledge gaps: A new horizon of (digital) inequality.?International Journal of Communication14745-765.
Danaher, J.HoganM. J.NooneC.et al. (2017). Algorithmic governance: Developing a research agenda through the power of collective intelligence. Big Data & Society4(2)1-21.
Diakopoulos, N. (2014). Algorithmic accountability reporting: On the investigation of black boxes. Retrieved November 292022 from https://towcenter.columbia.edu/news/algorithmic-accountability-reporting-investigation-black-boxes.
Djafarova, E. & RushworthC. (2017). Exploring the credibility of online celebrities’ Instagram profiles in influencing the purchase decisions of young female users. Computers in Human Behavior, 681-7.
Duffy, B. E. (2020). Algorithmic precarity in cultural work.Communication and the Public,5(3-4)103-107.
Edwards, R. & HollandJ. (2013). What Is Qualitative Interviewing? London: Bloomsbury.
Gal, M. S.& Elkin-Koren, N. (2016). Algorithmic Consumers. Harvard Journal of Law & Technology, 30309.
GallowayA. R. (2006).Gaming: Essays on algorithmic culture. Minneapolis: University of Minnesota Press.
GranA. B.BoothP.& Bucher, T. (2021). To be or not to be algorithm aware: a question of a new digital divide.Information, Communication & Society24(12)1779-1796.
GuerraA.& d’Andréa, C. (2022). Crossing the algorithmic’Red Sea’: Brazilian ubertubers’ ways of knowing surge pricing.Information, Communication & Society1-19.
Guthrie, S. (2016). Internet influencers as new celebrity. Retrieved November 292022 from https://sabguthrie.info/internet-influencers-as-newcelebrity/.
Introna, L. D. (2016). Algorithms, governance, and governmentality: On governing academic writing.Science, Technology, & Human Values,41(1)17-49.
Kitchin, R. (2017). Thinking critically about and researching algorithms.Information, Communication & Society20(1)14-29.
LashS. (2007). Power After Hegemony. Theory, Culture and Society24(3)55-78.
LatzerM.Hollnbuchner, K.Just, N.& Saurwein, F. (2016). The Economics of Algorithmic Selection on the Internet. In BauerJ. & Latzer, M. (Eds). Handbook on the Economics of the Internet (pp. 395–425). Cheltenham: Edward Elgar.
Liu, T.TanC. K.Yang, X.& Li, M. (2021). Zhibo gonghui: China’s ‘live-streaming guilds’ of manipulation experts.Information, Communication & Society1-16.
MacCormickJ. (2013).Nine algorithms that changed the future: The ingenious ideas that drive today’s computers. Princeton: Princeton University Press.
Marwick, A. E. (2015). Instafame: Luxury selfies in the attention economy.Public Culture27(1)137-160.
MengJ. (2021). Discursive contestations of algorithms: a case study of recommendation platforms in China. Chinese Journal of Communication14(3)313-328.
NapoliP. M. (2013May). The algorithm as institution: Toward a theoretical framework for automated media production and consumption. Presented at the Media in Transition Conference, Massachusetts Institute of Technology, Cambridge.
O’Meara, V. (2019). Weapons of the chic: Instagram influencer engagement pods as practices of resistance to Instagram platform labor. Social Media+ Society5(4)1-11.
PasqualeF. (2015). The black box society: The secret algorithms that control money and information. Cambridge: Harvard University Press.
Ramizo Jr, G. (2022). Platform playbook: A typology of consumer strategies against algorithmic control in digital platforms. InformationCommunication & Society25(13)1849-1864.
Ruckenstein, M.& Granroth, J. (2020). Algorithms, advertising and the intimacy of surveillance.Journal of Cultural Economy13(1)12-24.
SavolainenL. (2022). The shadow banning controversy: perceived governance and algorithmic folklore. MediaCulture & Society44(6)1091–1109.
SavolainenL.& RuckensteinM. (2022). Dimensions of autonomy in human–algorithm relations. New Media & Society1-19.
Schellewald, A. (2022). Theorizing “stories about algorithms” as a mechanism in the formation and maintenance of algorithmic imaginaries.Social Media+ Society8(1)1-10.
SeaverN. (2017). Algorithms as culture: Some tactics for the ethnography of algorithmic systems.Big Data & Society4(2)1-12.
SeaverN. (2019). Knowing algorithms. In VertesiJ. & RibesD. (Eds). digitalSTS: A Field Guide for Science and Technology Studie (pp. 412-422). Princeton: Princeton University Press.
Senft, T. M. (2008).Camgirls: Celebrity and community in the age of social networks. New York: Peter Lang.
SharmaS. (2011). The biopolitical economy of time.Journal of Communication Inquiry35(4)439-444.
Sun, P. (2019). Your ordertheir labor: An exploration of algorithms and laboring on food delivery platforms in China.Chinese Journal of Communication12(3)308-323.
van de VenA. H. & HuberG. P. (1990). Longitudinal field research methods for studying processes of organizational change. Organization Science1(3)213–219.
van der NagelE. (2018). ‘Networks that work too well’: intervening in algorithmic connections.Media International Australia168(1)81-92.
Van DijckJ.& PoellT. (2013). Understanding social media logic.Media and Communication1(1)2-14.
Velkova, J.& Kaun, A. (2021). Algorithmic resistance: Media practices and the politics of repair.Information, Communication & Society24(4)523-540.
Willson, M. (2017). Algorithms (and the) everyday.Information, Communication & Society20(1)137-150.
赖楚谣系华东政法大学传播学院副研究员。本文为中国博士后科学基金第73批面上资助项目“社会性视角下社交媒体算法与用户的互动机制研究”(项目编号:2023M731123)成果。