协同网络、议程建构与真实性增值:国际涉华虚假信息的传播模式
——以COVID-19为例
■陈秋怡 汤景泰
【本文提要】在COVID-19大流行中,虚假信息的大肆传播造成了严重的信息疫情,不仅妨碍了有效的健康传播,还成为舆论战的武器被应用于国际政治博弈。面对这些突出问题,本研究利用数据分析方法,对涉华虚假信息的传播模式进行了考察。研究发现,真实认证用户在传播虚假信息相关主题上发挥了关键作用,西方的新闻媒体、政客及其政治组织、社会运动者与非营利性组织等传播主体之间组成了协同传播网络,共同建构了以“追责中国论”为导向的核心议题。除此之外,人机混合的协同扩散体,则利用了精英用户的影响力,通过短时间内协同转发精英用户的策略,在鼓励流行度的社交媒体平台上提高了虚假信息的可见性和可信度。不仅如此,研究发现,部分不实传播体除了充当虚假信息的扩音器之外,还具有为主流媒体建构议程的功能。虚假信息的传播呈现了 “级联活化”与“逆向级联活化”并存的模式,多元异质主体形成的协同传播网络有真实性增值的效果,可以形成更强大的意见气候,进而推动共识营造。
【关键词】计算宣传 虚假信息 伪草根运动 协同网络 舆论战
【中图分类号】G206
自COVID-19在全球爆发以来,相关虚假信息也在全球范围内广泛传播,世卫组织称之为信息疫情(infodemic)。虚假信息不仅阻碍了有效的健康传播,还成为舆论战的武器被一些政客与组织利用。在疫情期间,针对中国的病毒生化武器论,以及与中国疫情相关的各种虚假信息充斥了社交媒体。自动化技术被频繁用于虚假信息和仇恨言论的传播,使得国际舆论环境受到严重污染,甚至激发了多起种族主义事件(Ugarte, 2020)。面对这些突出问题,有必要对COVID-19爆发后,国际涉华虚假信息活动的传播主体及其行为模式进行系统研究,这不仅对于挖掘社交媒体平台上虚假信息的传播规律具有重要价值,而且对于认识舆论战的内在机制具有重要意义。
一、文献综述
2016年的英国脱欧与美国总统大选,助推“后真相”与假新闻成为研究热点,社交媒体平台上传播的虚假信息(disinformation)、假新闻(fake news)、不实在线行为(inauthentic online behavior)获得广泛关注。这些研究或将矛头指向社交媒体平台治理、回音室效应(echo chambers)和过滤气泡效应(filter bubbles),或是指向右翼民粹主义的崛起。但也有学者指出,这些研究一方面忽视了媒体生态系统中其他主体的作用,只是单纯延续了对“数字资本主义”的批判;另一方面把时域窄化,忽视了2016年之前就存在的关于宣传与说服的大量文献。因此,相关研究需要在具体的政治、社会与文化背景下,审视虚假信息如何被概念化,并从相关的历史事件中扩展对虚假信息的认识——媒体机构、政治人物等主体如何战略性地传播虚假或误导性信息,以探究其中的权力结构问题(Marwick, 2021)。
基于这一研究理路,虚假信息活动(disinformation campaigns)一般被视为是一种有组织的恶意宣传,这在传统的宣传研究中已多有论述。例如,在相关研究中,宣传策略被划分为白色宣传、灰色宣传与黑色宣传。其中在黑色宣传中,传播者会隐藏或混淆自身的角色并散布虚假信息(Becker, 1949)。然而,许多虚假信息的研究根植于政治心理学与大众媒介效果研究范式,忽视了信息传播的社会属性(Bennett & Livingston, 2020)。这些研究对虚假信息的内容、来源与接收者的心理进行了详尽的分析。然而如果仅把实验对象看作被动接受信息的个体,可能忽视了虚假信息传播的动态性和复杂性。尤其是在社交媒体时代,每个接收者也是潜在的来源,人们也通常从社交网络中寻找与传播信息,并非处于社会真空中孤立地进行事实判断(Bennett & Livingston, 2020)。另外,作为更广泛的信息战的一部分,如今的黑色宣传已通过电子战、经济信息战和网络战等方式实施,呈现计算化、网络化的态势。因此,我们需要从社会网络的视角寻找一种对虚假信息传播的解释。
实际上,不同范式的研究反映了对于“真实性”的不同观念。对于传统的心理学与媒介效果研究而言,真实性更多是一种自我概念,涉及个人如何感知与处理经验、事件、信息的心理过程。因此,许多虚假信息的研究假设个体“接收者”倾向于从内容的特征、来源的可信度来判断“真实性”(Guess & Lyons, 2020)。而基于社会网络视角的研究,则把传播看作一种社会过程,着眼于整体关系模式及其如何影响信息的传播。关系范式研究考虑网络如何放大或抑制某些信息,不同节点之间的交互如何创建反馈循环来加强或挑战特定的叙述,以及网络内的权力如何影响所看到的内容的“真实性”。换言之,在社会网络的视角下,虚假信息的“真实性”处于社会关系的建构之中。
从已有研究来看,基于社会网络视角的研究着重探讨信息扩散的社会机制问题,特别是信息传播过程中的互动关系、网络结构及其动态演变的过程,解释社会影响、社会学习、社会传染(contagion)以及同质性(homophily)和极化(polarization)过程的模式(Boutyline & Willer, 2017; Brummette et al., 2018; Goel et al.,2015; Wang et al., 2019)。然而,与未经证实的、真实性未知的“流言”不同,基于计算宣传背景下的虚假信息研究还包含人为操纵的作用,特别是“伪草根运动”(astroturfing)、“网络放大”(network amplification)等协同网络传播的模式受到关注。例如,“网络化社会影响”与“策略性信息操纵”是导致虚假信息传播的两种社会机制。“网络化社会影响”是指由于传递性、同质性和嵌入性等社会网络的规范、结构而导致的传播。“策略性信息操纵”则是通过建立社交媒体账户、设置议程与散布虚假信息的方式共同驱动的传播(Zhen et al., 2022)。网络放大是由社交网络结构所塑造的信息扩散过程,也是“策略性信息操纵”利用社交媒体吸引公众注意力的方式。例如,有研究关注了保守媒体与自由主义影响者的网络放大行为——即精英用户通过分享相似的内容,重复、强化相关信息在社交媒体的传播(Zhang et al., 2022)。“伪草根运动”(astroturfing)也被视为虚假信息传播的主要方式,即伪装普通用户的身份,制造一种特定观点在社会上得到广泛支持的印象。本质上,它与网络放大行为是相似的,都是通过协同传播的行为,放大与扩散某种观点。但这一概念强调的是伪造“草根”支持的意见气候,在舆论操纵的相关研究中受到关注(Chagas, 2022; Cho et al., 2011; Keller et al., 2020)。
从主体角度来看,相关研究则主要探讨了六类主体对虚假信息协同扩散的影响:(1)社交机器人:政治社交机器人被认为数量巨大,并在全球范围内实施诸多舆论操纵活动(Woolley, 2018)。(2)国家行为体:大量研究追溯了虚假信息传播背后的国家力量,并聚焦“投饵人工厂”(troll factory)基于地理目标和平台进行劳动分工的专业化、工业化的运作方式(Bastos & Farkas,2019;Dawson & Innes,2019;Lukito, 2020)。(3)新闻媒体:这部分研究主要关注右翼媒体、党派媒体与虚假信息的关联(Kaiser et al., 2019;Polletta & Callahan, 2017;Vargo et al., 2018)。(4)商业公司(Munger, 2020):例如2016年大选期间发布支持特朗普假新闻的“马其顿青年”(Macedonian teenagers)主要受利润而非意识形态驱动(Guess & Lyons, 2020)。(5)匿名网络:例如来自4chan和8chan等论坛的匿名协作网络(如QAnon)如何利用主流社交媒体平台(Twitter、Facebook、YouTube)扩散虚假信息和阴谋论(Krafft & Donovan, 2020)。(6)“众包精英用户”(crowdsourcing elites):研究发现这些潜在主体具有信息放大作用,可能影响虚假信息的传播(Gallagher et al., 2021)。这些研究提供了基于不同主体的案例分析,说明制造伪草根运动(astroturfing)的不仅是社交机器人,还有更复杂的人类主体或混合账户,这都为主体类型的划分提供了研究依据。
虚假信息通过协同传播进行网络放大,目的在于获取注意力,设置议程并占据舆论主导位置。已有研究发现2004年美国大选期间虚假信息设置了传统新闻媒体的议程(Rojecki & Meraz, 2016);假新闻与网络党派媒体有着复杂关系,2016年美国大选期间党派媒体特别容易受到假新闻议程影响(Vargo et al., 2018)。然而正如上述研究所示,在现实传播环境中,虚假信息活动的主体已经日趋复杂与多元,行动者并不局限于新闻媒体。随着议程设置研究的深化,研究者们发现,这一过程不仅涉及媒体组织的作用,还涉及广泛的公众以及决策者。基于这样的认识,Cobb和Elder在1972年提出了议程建构理论。议程建构(agenda building)是指各种社会团体试图将自身利益传递到公共决策者的过程(Cobb et al., 1976)。议程建构是一个持续的进程,其间由于媒体、政治系统和公众的复杂互动,媒体发掘新闻议题,并加以建构、报道,使它们成为公众讨论的焦点。该理论指出,行为者(媒体、公众、利益集团、精英、决策者)之间的影响不是单向的,而是一个相互影响的网络。换言之,议程建构理论强调媒体、政策制定者和公众在塑造议程中的动态多向关系。基于此,本研究的重点是扩展议程建构的主体,分析虚假信息活动中客观存在的新闻、政治、“伪草根运动”的协同扩散体、普通用户等相关主体之间议程建构关系的动态变化,以理解舆论战的内在机制。
总体而言,一方面,已有许多研究聚焦舆论操纵中人类与机器人的二元对比,而本研究旨在挖掘虚假信息制作与传播中更广泛的异质主体。另一方面,已有主体研究各自关注了虚假信息制作与传播图景的一部分,却没有揭示这些多元主体之间的互动关系,特别是没有揭示这种互动关系对虚假信息真实性的影响。不仅如此,随着虚假信息活动的计算化与网络化,这些多元传播主体之间如何进行议题建构,成为虚假信息传播的通道,并经由关键节点扩散虚假信息的模式,仍然是值得探究的问题。因此,本研究关注以下两个问题:(1)在涉华虚假信息活动中,有哪些多元异质主体?(2)这些多元主体如何互动以构建虚假信息的传播网络?基于这两个经验性问题,本文进一步讨论多元异质主体的互动网络如何建构议程,以加深对虚假信息“真实性”建构的理解。
二、研究设计
(一)数据收集
推特(Twitter)是目前数据开放程度较高的社交媒体平台,并且世界范围内的新闻媒体、政要等都在此平台活跃地传播信息,是观察和研究国际传播问题的重要场域。因此,本研究首先利用推特开放的应用程序接口(API)进行COVID-19相关数据的实时采集(语言为英语)。①数据收集从2020年2月17日开始,截至2020年7月11日,覆盖了虚假信息传播的关键阶段。
为了聚焦与涉华虚假信息主题相关的推文,本研究进一步限定了检索关键词。检索的关键词提取自Poynter新冠病毒事实核查联盟(#CoronaVirusFacts Alliance)建立的事实核查数据库。该联盟包含了来自超过70个国家或地区的事实核查组织,核查了超过9000条虚假信息,用超过40种语言发布核查结果。这是国际上规模最大、覆盖范围最广的事实核查运动之一。本研究利用自然语言处理的开源库spaCy对事实核查数据的文本进行处理。在命名实体识别的基础下,筛选了包含涉华主体(如China、Chinese、Hubei、Wuhan等)的数据,进行去重处理后得到了涉华虚假信息事件集,以及341组涉华虚假信息的关键词。为了进一步聚焦与虚假信息相关的数据,本研究还对涉华虚假信息事件集中的样本进行了Doc2vec语义建模并计算语义相似度,筛选了与虚假信息相关性高的推文样本。
另外,虚假信息依赖转发关系进行扩散(Liang et al., 2019; Shin et al., 2017)。为了对虚假信息活动的传播结构进行研究,本研究选取了转推关系作为建网的基础。研究通过原发推文回溯了转发推文和相关联的用户数据,最后分别得到了原发推文与转发推文、原发用户和转发用户的关系型数据。其中,原发推文有203120条,转发推文有522599条,共涉及用户帐号406995个。
(二)研究方法
1.语义建模
本研究选择段落嵌入(Doc2vec)的语义建模方法,目的是计算推文之间的相似性,发现相似度高的推文集群。因为重复发布相似的推文是虚假信息活动的常见手段之一。另外,聚焦与虚假信息相关的推文,过滤掉相关性低的推文,也需要使用此方法。
在具体操作上,本研究调用的是基于Python的自然语言处理开源库Gensim中的Doc2vec模型。首先,本研究对推文样本进行了文本清洗、分词等预处理步骤之后,训练了一个250维的Doc2vec模型;接着,采用HDBSCAN算法对输出的文档向量进行聚类,最终标记出高度相似的文档集群。在进行语义相似度计算的基础上,本研究对341条虚假信息事件进行主题归纳,呈现如(表1 表1见本期第7页)所示的基本内容。
2.知识图谱与实体分析
首先,本研究依据验证情况,将用户分为认证用户和非认证用户两大类。根据推特的官方介绍,认证用户必须符合一定的知名度标准——政府官员和办公室、国家或州级公职的官方候选人等政治类用户、新闻机构和记者、商业公司、娱乐行业从业者、活动家与社会组织、其他有影响力的个人通过平台的身份审核与验证后可以成为认证用户。因此,认证用户往往是垂直领域的意见领袖,其身份公开且容易辨识。本研究以认证用户的全名及其账号名作为待分析的实体,利用谷歌的知识图谱(knowledge graph)和IBM自然语言理解程序接口的实体分析功能,②获得了实体的标签信息,根据所返回的标签信息的关键词进行用户分类。本研究得到认证用户的分类类型如(表1 表1见本期第8页)所示。
3.社交机器人识别
Botometer工具是由印第安纳大学研究人员开发的应用,采用了超过1000种特征对机器人进行识别,被研究者广泛使用。该工具需要通过API调用模型对推特账户的自动化程度评分,得分超过0.5通常被认为该账户“对严谨的分析来说是可疑的”(Davis et al., 2016; Yang et al., 2019, 2020)。本研究采取Botometer对账户进行自动化概率的判断,取更为保守的0.8为阈值将用户分为类机器人(bot-like)用户、类人类(human-like)用户。而部分账号被删除,有可能是被平台处理的机器人或违反社区条例的账号,在本研究中被标识为异常用户。
需要注意的是,已有研究指出自动化账号只是虚假信息活动的很小一部分,基于Botometer识别社交机器人的方法也有局限性,应该转而研究有组织协调的“伪草根运动”(Schoch et al., 2022)。因此,“伪草根运动”网络是本研究关注的主体,Botometer用以辅助说明账号自动化水平的差异。
4.社会网络分析
对于非认证用户,本研究则主要判断其是否作为“伪草根运动”的一部分扩散虚假信息,这主要涉及社会网络分析的方法。“伪草根运动”一词原来用以描述公关公司发起的人为活动(Cho et al., 2011),如今被理解为虚假信息活动(disinformation campaigns),即特定利益主体通过隐藏身份,冒充“草根声音”(García-Orosa, 2021),协同放大与推广特定任务和信息。无论是机器人还是其他特殊主体,在接受统一指令下,还是会表现出一些集群行为特点。这就有必要超越人机划分,从协同行为的角度提出相关的识别方法。例如,建立协同发推网络(co-tweet,在短时间内共同发布同样的推文)、协同转发网络(co-retweet,在短时间内共同转发同样的推文)。结合Keller的方法(Keller et al., 2020)以及已有研究的实验情况(Graham et al., 2020),本研究进一步缩短时间间隔,选择阈值为1分钟。在1分钟内共同发布重复内容、转发同一条推文的用户分别被构建为协同发推网络、协同转推网络。然后,本研究选择网络中最大的连接组件(component),将这些群体定义为“协同扩散体”。
5.时间序列分析
议程建构研究表明,媒体、公众和政策制定者之间的关系可能是双向变化的,但对动态、双向的关系进行估计仍然是许多研究的局限性。为了探究涉华虚假信息活动中的议程建构关系,本研究利用格兰杰因果检验对不同类型用户的信息发布时间序列(按日期聚合)进行双向分析。在进行格兰杰因果检验前,本研究对时序进行一阶差分处理,进行单位根检验与协整检验。
三、分析结果
(一)主体类型与行为分析
通过一定标准获得验证的用户大概率不会是被用于“伪草根运动”的社交机器人或人类“水军”,而是在各种垂直领域具有影响力的真实用户。而大部分用户则是非认证用户,其中就可能包含类社交机器人账号、或者进行伪草根运动的匿名人类用户。因此,用户的分类主要先根据验证情况进行划分。更进一步来说,认证用户根据其所在的垂直领域进行细分,而对于非认证用户就着重进行类社交机器人账号和人类“水军”的观察。
1.认证用户:美国的新闻与政治用户是核心参与者
认证用户通常被认为是垂直领域的影响力者(Paul et al., 2019),比非认证用户拥有更多的追随者,并且创造了更多的原创内容,以及更多的转发、评论与点赞量。基于这些特点,这些认证用户可以视为相对草根用户的“精英用户”。认证用户的分类结果如表3所示,占比最大的是新闻类别的用户(65.73%),其次是政治类别的用户(9.64%)。在细分类型中,以新闻工作者(39.95%)和新闻媒体(24.93%)最为突出,其次则是政治人物(7.27%)。对各类别的认证用户的转发量进行统计,则发现新闻与政治类别用户所产生的转发量也较为突出(图1 图1见本期第10页),因此新闻与政治类别的用户是涉华虚假信息活动中主要的真实参与者。
推特的认证用户信息包含了自我报告的地理位置,一定程度上有助于判断用户所属的国别或地区。提供具体国别或地区信息的认证用户总占比为88%,其他用户归为“其他(世界)”类别(包括被平台标为“worldwide”的用户)。但这些地理位置标识格式并不统一,例如有的只显示了城市级别的地理位置。因此,在数据清洗阶段,本研究利用开源的地理数据库GeoNames将这些地理位置统一匹配格式,发现约49%的用户来自美国。新闻、政治、学术以及社会运动与组织类的用户来自美国的比例都超过40%(图2 图2见本期第10页)。因此,在这些被认证了的“精英用户”中,来自美国的新闻与政治类用户是核心的参与者。
2.非认证用户:大量协同扩散体制造“共识”
伪草根运动(astroturfing)是由中心指挥者协调的虚假信息活动,而参与者冒充为独立行动的普通用户,并通过充当僵尸粉丝、点赞与转发目标用户的信息以提高目标信息在平台的传播权重,从而制造话题趋势、营造大规模的“共识”假象。在中心指挥者的协调下,这些不实传播主体间转发或发布相同推文的时间间隔会异常相近。本研究对数据样本进行用户间发推、转推的时间间隔计算后也发现,大部分用户发布和转发同一条推文的间隔高度集中,不会超过一天;92.40%转发间隔小于一天(图3 图3见本期第11页)。根据已有研究的实验情况(Graham et al., 2020; Keller et al., 2020),本研究进一步缩短时间间隔,选择阈值为1分钟。如(图4 图4见本期第11页)所示,在1分钟内共同发布重复内容,以及在1分钟内转发同一条推文的用户分别被构建为协同发推网络和协同转推网络。然后,本研究选择最大的连接组件(component),界定协同扩散体——即在1分钟内多次共同发布重复内容,以及在1分钟内多次共同转发同一条推文的异常用户群。
如(图5 图5见本期第12页)所示,协同发推和转推网络中最大群组一共拥有157223位用户。其中仅协同发推的用户有6693位,平均发布数高达4.33,平均重复发布数为1.63,在发布虚假信息相关的推文上很活跃;而仅协同转推的用户最多,有149007位,平均转发数达2.04,在转发虚假信息相关的推文上比较活跃;协同发推又协同转推的用户有1523位,无论是点赞数、转发数、发布数,还是重复发布数和重复转发数都是最高的,该类型的用户在扩散虚假信息相关的推文上表现最为活跃。若以自动化程度分类(图6 图6见本期第11页),则发现协同扩散体中有7.58%为类社交机器人用户。尽管本研究取了比较保守的机器人评分阈值,但类社交机器人的用户规模依然可观。类社交机器人用户主要在点赞和转发上较为活跃,而被平台删除和屏蔽的异常用户,在行为指标上则更接近机器人,有可能包含了平台封禁的机器人账号。与其他虚假信息的研究不同的是,类人类账号的数量比类社交机器人账号更为庞大。尽管类人类账号平均发布数与转发数不及类社交机器人账号,但信息的发布与转发总量是最多的。
总结而言,可以发现大量虚假信息相关的推文是通过转发扩散的,并且相比类人类用户,类机器人用户在转发和点赞上更为活跃;而有一部分用户在发布虚假信息相关的原创推文上十分活跃,创造了20%左右的虚假信息相关的原创推文。这些类社交机器人用户或类人类用户并非独立自主地转发与点赞推文,而是具有目的性、任务性的协同行动特点。由此可见,仅人机二元划分无法涵盖协同扩散的主体,自动化账号只是很少的一部分,协同扩散网络实际上更偏向人机混合网络。这些协同扩散体通过点赞、转发等行为制造参与数据,不仅让虚假信息相关的推文能够在社交媒体持续地增加可见度,还能够营造一种草根群体“共识”与“同意”的意见气候,从而增加虚假信息的“可信度”。
3.行为特征分析:通过提升参与度扩散虚假信息
除了协同扩散体,还有部分未认证用户没有纳入协同发推和转推的群体中。但这些未验证的匿名用户也存在23925个机器人(占用户总量的5.89%),以及64834位已经被删除的异常用户(占用户总量的15.95%)。而其他并非协同扩散体,也非机器人和异常用户的标识为普通用户,这部分用户占总用户的36.96%。最后用户被分类为如图7所示的互斥的类别。
通过观察不同类型的行为指标可以发现(图7 图7见本期第12页),协同扩散体的平均转发数和重复转发数最高,在转发虚假信息相关的推文上最积极,并且获得了27.41%的发布数、59.81%的转发数、67.23%的重复转发数以及49.15%的点赞数(图8 图8见本期第13页);而非协同扩散体的机器人虽然转发和重复转发的行为不突出,但平均点赞数与协同扩散体相近,都异常高,超过了3万,这部分机器人虽然并不是主要依靠转发扩散虚假信息,但有可能通过点赞提高虚假信息的传播度。
而相比协同扩散体、机器人、异常用户和普通用户,新闻、政治等垂直领域的影响力用户的平均被关注数和发布数都比较高。特别是在被点赞数与被关注数上,新闻的总占比是最突出的。而新闻、社会运动与组织类的用户发布数较高,说明其在发布虚假信息相关的原创推文上非常活跃。虽然现有研究多把虚假信息归咎于自动化技术(如社交机器人),但通过本文分析可以看出,新闻类等影响力大的真实用户其实是更为关键的传播节点,表现为发布原创推文活跃,且获得了更多的被点赞数、被关注数(图8 图8见本期第13页)与被转发数(图9 图9见本期第14页)。
总结而言,协同扩散体和机器人等不实传播体,主要是通过转发和点赞促进虚假信息的扩散,而新闻等垂直领域的有影响力用户则在原创推文的发布上更为活跃。这些真实用户在虚假信息的传播中充当着特殊的角色。因此,还需要观察各类用户间实际的互动关系。
(二)主体行动网络分析
转发是虚假信息扩散的主要方式之一,通过建立各类用户间的转发网络,可以发现充当特殊角色的用户类型;而相同类型的用户之间,也可能存在协作的行为,共同建构议题。因此,对于主体行动网络的分析,主要分为不同类型用户群之间的协作关系、相同类型用户群之间的协作关系两部分。
1.转发网络:不实传播体与真实用户之间的协作关系
如(图9 图9见本期第14页)所示,当用出度值表征节点大小时,可以发现新闻与政治类用户的推文多被不实传播主体所转发,出度值较大,在转发网络中充当信息的输出方。相反地,协同扩散体与普通用户则主要充当信息的输入方(图10 图10见本期第14页),而各类别用户的内部也有不同程度的转发关系。
在去除未聚合节点自循环的边后,对被转边数进行统计,结果如表4所示:新闻类用户被协同扩散体转发的关系占比最多(29.54%),其次是协同扩散体被协同扩散体转发的关系(11.06%)。值得注意的是,政治类用户被协同扩散体转发的关系占比也不少(6.37%),而新闻类用户、政治类用户、协同扩散体分别与普通用户都存在转发关系。由此可见,协同扩散体这样的不实传播体并不是虚假信息传播的唯一源头,新闻类与政治类的用户也发布了虚假信息相关的推文,并且得到了协同扩散体的协助,使得虚假信息得以进一步扩散。因此,通过与新闻类、政治类乃至普通用户以及协同扩散体内部的互动,可以发现协同扩散体在其中充当了舆论“扩音器”的作用。
不仅如此,此前许多有关计算宣传与虚假信息活动的研究,主要关注社交机器人和匿名网络的作用,但却忽视了不实传播体与真实影响力用户之间的互动关系。但通过上述分析可以发现,虚假信息还直接通过新闻类、政治类有影响力的真实用户扩散给普通用户。也就是说,新闻类、政治类以及协同扩散体共同促进了虚假信息相关推文的扩散。相比较而言,新闻类与政治类的真实用户的危害性会比匿名用户与社交机器人危害性更大。因为他们拥有更多更有黏性的追随者、更活跃的原创发布行为以及社会权威性,普通用户更有可能接受并转发其信息;而协同扩散体对这些真实用户的转发,扩大了其信息的热度和可见性,又可能对这些真实用户发布或转发的虚假信息的扩散起到促进作用。
2.议程建构网络:精英用户之间的协作关系
通过协同网络放大声量,是虚假信息活动设置议程,获取公众注意力的典型方式。然而,正如上文的分析,在协同网络中不同类型节点充当的角色以及影响力分布是有明显差异的,特别是新闻、政治类等“精英用户”占据了更大占比的发布数、被点赞数、被关注数、被转发数,是协同传播网络中的关键节点。那么这些“精英用户”如何影响议程的建构?
除了转发关系,“精英用户”还可以通过共同发布相同或相似的推文来建构议程。本研究定义相同类型用户间发布同一主题的推文为议程共发关系,生成议程建构网络。其中,由于新闻主体太多,本研究在建网时设置了时间间隔的阈值,即只留下在同一天内发布相同主题的强关系。而其他类型用户相对较少,群组划分相对清晰,则对其总的议程共发关系进行观察。
在新闻类的议程建构网络中(图11 图11见本期第15页),可以发现几个明显的核心群组:例如,以“Reuters”、“ReutersChina”、“ReutersUS”、“ReutersWorld”等账号为代表的路透社系媒体群组;以“next_china”、“BloombergAsia”等账号为代表的彭博社系媒体群组;以“guardian”、“GuardianAus”、“guardiannews”等账号为代表的卫报系媒体群组;除此之外还包含了美国广播公司(ABC)系、福克斯(Fox)系、有线电视网(CNN)、华尔街日报等媒体,涵盖了英国、美国不同立场的媒体及其记者。因此,与许多研究不同的是,发布虚假信息相关主题报道的并不只有右翼保守的新闻网站,在涉华议题上西方“主流媒体”也不乏此类型的报道,但议题表达的方式存在差异。
有研究根据美国两党选民的行为数据对新闻媒体的立场进行了分类(Benkler et al., 2018: 51)。其中,推特的媒体账号形成两个明显的集群。一个是以布莱巴特(Breitbart)、福克斯(Fox News)为代表,包含纽约邮报(New York Post)和华盛顿时报(Washington Times)等账号的右翼媒体圈;另一个是包含纽约时报(New York Times)、美国有线电视新闻网(CNN)、卫报(Guardian)等账号的中间偏左的媒体圈。而路透社、彭博是少数处于中间位置的媒体。整体上形成了明显的两极分化的结构,而且社交媒体的两极分化结构比开放网站还要更显著(Benkler et al., 2018: 56)。
然而,在涉华的议题建构网络中,两级分化的结构却并不明显。具体而言,立场偏中左的媒体主要是通过引述、报道相关主题来建构议题,增加了相关主题的可见性。例如卫报系、彭博社系的媒体共同发布了第三方(特朗普的助手布莱恩·亚当斯、美国国务卿迈克·蓬佩奥)指责中国的报道,将病毒来源往中国饮食文化、实验室泄漏、政府失责的方向上归因,并声称中国的新冠病例数高于官方数字,暗示中国发布虚假数据。其中美国广播公司(ABC)系的媒体不仅引述蓬佩奥的话语,传播针对中国的“追责论”,还构建了中国“反黑人种族主义”的议题,向种族矛盾和冲突的方向上引导。而立场偏右的媒体,不仅引述、报道虚假信息,福克斯系的媒体还存在直接发布虚假信息的行为。这些媒体同样建构了中国“发布虚假数据,隐瞒真相”、“实验室泄漏病毒”的议题,并继续向“追责论”引导。特别是福克斯系媒体发布的所谓“西方情报档案揭示了中国如何在冠状病毒问题上欺骗世界”的报道,被部分美国官员、学者传播,获得了大规模的传播量。
在政治类的议程建构网络中(图12 图12见本期第16页),传播主体的构成则比较清晰,大部分来自美国共和党的官员以及共和党的支持者,例如:“SteveGuest”是共和党参议员泰德·克鲁兹的通讯特别顾问,为共和党全国委员会工作;“AmbJohnBolton”是前美国总统国家安全事务助理,共和党顾问以及福克斯新闻的评论员;“JohnCornyn”是美国共和党参议员;“RepMarkWalker”是美国共和党人,参议院竞选者;“BillHagertyTN”是美国共和党参议员;“RepHagan”是美国共和党人,支持特朗普的保守政客;“TaraSetmayer”是前共和党通讯主任;“RepKayGranger”是美国共和党国会议员;“MarshaBlackburn”是美国共和党参议员,特朗普以及茶党运动的支持者;“SenMcSallyAZ”是共和党参议员;“FrankLuntz”是共和党战略家、传播顾问和政治民意测验专家;“realDonaldTrump”是美国前总统特朗普,“TeamTrump”是他的竞选团队。这些政治类用户主要建构中国“隐瞒信息”、“囤积物资”等议题,并且依然导向针对中国的“追责论”。
在社会活动与组织的议程建构网络中(图13 图13见本期第18页),则出现了许多美国的右翼政治组织,如作为茶党运动一部分的“茶党爱国者”(TPPatriots)、美国反穆斯林组织“为美国而行动”(ACTforAmerica)、支持特朗普的右翼政治组织“特朗普作战室”(TrumpWarRoom)和“美国第一行动”(AmericaFirstPAC,为特朗普的竞选募资的“政治行动委员会”);以及美国右翼或极右的政治活动者,如美国另类右翼政治活动者“JackPosobiec”、保守派活动者“KyleKashuv”与“nedryun”、白人民族主义者“AngeloJohnGage”、特朗普与茶党运动的支持者和政治活动者“AmyKremer”、美国右翼政治活动者与特朗普的儿子“DonaldJTrumpJr”等。除此之外,还有一些美国的动物保护组织、环保组织、社会公益组织及其人员,如“绿色和平”(GreenpeaceUK)、“野生救援”(WildAid)、人权观察(Human Rights Watch)组织的执行主任“KenRoth”、人权观察中国部主任“SophieHRW”等。值得注意的是,一些智库组织也参与其中。这些社会活动与组织类的主体也参与构建了有关“实验室泄漏病毒”、“中国隐瞒信息,发布虚假数据”等议题,并继续导向对中国的追责。
总体而言,涉华虚假信息不仅依靠协同扩散体传播,还会被大量的新闻类等真实用户所引述与报道,从而增加了虚假信息相关议题的曝光度与可见性。这些新闻媒体声称坚持平衡的专业新闻准则,但却往往导致各种阴谋论、科学怀疑论的观点被纳入报道,反而产生了越来越多的偏见(Bennett & Livingston, 2020)。而且,新闻类、政治类、社会运动与组织类“精英用户”发布的原创推文基调相似,共同建构了“新冠病毒是人为泄漏的”、“中国信息不透明并且虚假发布”等议题,最终都导向“追责中国”的核心议题。这些“精英用户”大部分持保守的政治立场(例如右翼的政客、政治组织),也不乏偏中左的媒体,但是在涉华议题的发布上相互关联,没有像其他议题般呈现明显的两极分化模式。
与传统议程设置不同的是,议程建构在不同的异质网络中双向、动态地持续进行。而对议程建构网络的分析也可以发现,精英用户以KOL(Key Opinion Leader)网络矩阵的方式进行议题发布;并且,协同扩散体网络深度介入了涉华议程的建构之中,首先影响了KOL网络的议程。例如,病毒起源、阴谋论是两个典型的议题。如(表5 表5见本期第17页)所示,在这些议题上,都是先由协同扩散体与社交机器人组成的用户网络影响了新闻、政治与社会运动与组织等精英用户组成的KOL网络;接着,普通用户也加入对KOL网络的议程建构中来。这种“从下至上”的影响主要出现在前期(最短时滞期1-3),而在中后期(最短时滞期5-10)则是新闻等用户持续地对普通用户、协同扩散体进行“自上而下”的影响。在这一模式中,相关议题经由新闻等KOL网络的报道抵达了更广泛的受众。协同扩散体有效利用了这些KOL网络的影响力,并且在后期关系上主要表现为“自上而下”的影响。
四、结论
总而言之,研究发现:(1)除了社交机器人,涉华虚假信息活动中存在多元异质的主体;特别是,人机混合的协同扩散体网络制造了大部分的点赞数与转发数,而新闻与政治等精英用户则在发布原创推文上更为活跃,并且获得了大部分的被点赞数与被转发数。(2)多元异质主体之间通过相互转发、共同发布的关系构建了虚假信息相关议题的传播网络;在转发网络中,新闻与政治等精英用户是入度值高的关键节点,他们的信息主要被协同扩散体转发;新闻与政治等类别的精英用户各自组成了KOL网络进行议程建构,而协同扩散体网络也介入了议程建构的动态关系之中,最终形成了“自下而上”到“自上而下”的议程建构模式。
基于以上两个经验性问题的考察,本研究认为需要理解异质多元网络之间的互动关系对于虚假信息“真实性”建构的影响。从主体分析及其互动关系来看,虚假信息的传播存在“级联活化”模式,即议程的建构遵循“精英-组织-媒体-公众”的“级联活化”机制。在“生化武器论”、“病毒泄漏论”制作与传播的过程中,智库、非政府组织等“第三方”充当信源,经由媒体披露,媒体与政治人物跟进扩散、设置议程,而学术人物、智库等非政府组织再出来做权威背书。例如,“生化武器论”在2020年1月由华盛顿时报释放,该报道引用了以色列研究机构与前军方人员的主张,并且以自由亚洲电台的报道作为信源。该言论被新保守派议员和右翼律师采用为依据,开展对中国的诉讼与索赔行动。随着新冠疫情在美国蔓延以及大选的临近,这一议题被特朗普班底于同年4月采纳,主要由华盛顿邮报、福克斯等媒体释放,其他媒体跟进报道。这些报道以美国国务院的电报以及所谓的开源机密文件作为信源,并请所谓的科学家与社会活动家进行权威背书。这种模式在不同的涉华事件中反复上演(Graphika & Observatory, 2022)。
除了“级联活化”模式外,还存在大量网民自组织式的传播阴谋论的行为,呈现从公众到精英的“逆向级联活化”模式。在涉华虚假信息活动中,阴谋论依赖伪草根运动进行扩散与“主流化”。协同转发网络中,不仅有机器人参与,协同网络所推动的主题还被更广泛的边缘社区所接受,使得虚假信息扩大了传播范围,还获取了“真实性”——即虚假信息不仅被机器人或其他不实账户传播,真实的用户也参与进来,并被亲特朗普、共和党等阵营的权力网络所捕捉,以推动阴谋论的主流化(Graham et al., 2020)。
通过级联活化机制以及激活逆行级联活化机制,虚假信息才得以制造同意,营造意见气候,影响对于信息真实性的认知。进一步明确地说,多元主体网络对虚假信息各种形式的传播,可以起到真实性增值的效果,这可以进一步丰富我们对“新闻真实”等问题的认识。具体而言,在COVID-19疫情期间,西方诸多新闻媒体、政客与政治组织、社会运动者与非政府组织、草根用户、社交机器人,都成为虚假信息传播的通道。这些传播主体通过制造参与性数据,不仅让虚假信息相关的推文能够在社交媒体持续增加可见度,使得议题得以持续传播,还能够营造一种草根群体“共识”与“同意”的意见气候,从而增加虚假信息的“可信度”。因为虚假信息虽然不具备客观真实,但通过转发、评论与点赞等群体表征行为,却制造了认知上的“立场真实”与“情感真实”,而且形成了强大的信息茧房效应。
这就使得新冠疫情期间涉华虚假信息的传播呈现出典型的泛政治化倾向,形成了政治逻辑对风险逻辑的碾压,并基于媒介化逻辑造成负面效应被加倍放大,其主要表现就是将疫情与政治立场挂钩,并且试图在舆论场中强化中国威胁论、中国崩溃论和中国责任论的认知图式。从议题来看,相关虚假信息也主要以攻击论调为主,运用似是而非的逻辑,将局部问题全局化,将公共卫生问题政治化,将个别问题阴谋论化,既非理性讨论,也缺乏对疫情防控的建设性意见,所以其实质是通过激进的话语策略来抢占话语空间,已经呈现出典型的立场政治倾向。在这种逻辑支配下,所谓的“新闻真实”也就变成了“立场真实”与“情感真实”。人们更愿意相信具有身份认同感与情感归属的信息,情感成为当今政治参与以及媒体传播的关键因素。新冠疫情期间的涉华虚假信息运动,是情感政治的典型体现。
综上所述,虚假信息处于多元主体权力博弈的社会建构中,社会关系的生产与再生产、及其对于受众认知与情感的影响,才是虚假信息构建“真实性”的关键。超越本体实在论,对于理解当今计算宣传活动如何利用人们的情感真实与立场真实来生产与传播虚假信息,具有重要意义。计算宣传就像技术催化剂,塑造了后真相环境、促进了“情感反馈循环”(affective feedback loop)形成——利用社交媒体平台的算法机制,回馈与促进某种情感信息的生产与传播(Boler & Davis, 2018)。在权力博弈视角下,这种社会情感在社交媒体平台上的规模化、自动化生产与传播仍然值得继续深入探索。■
注释:
①虚假信息是多语言传播,相比而言,英语用户和推文的占比最大,但这也规限了观察的用户主要来自美国。本文关注的语境主要是英语社区,未来研究需要关注其他语言环境下虚假信息的传播。
②谷歌的知识图谱包含了有关人、地点和事物的数十亿个事实,其数据除了来自公开源(如维基百科),也接受搜索引擎用户的反馈。IBM提供的实体标签信息则主要源自从维基百科中萃取结构化信息的项目Dbpedia。
③④体育资讯、娱乐资讯是指专门发布该垂直门类内容的账号,与官方的体育组织、体育名人、文艺工作者的账号相区别。
参考文献:
BastosM.& Farkas, J. (2019). “Donald Trump is my president!”: The Internet Research Agency propaganda machine. Social Media + Society5(3)205630511986546.
BeckerH. (1949). The nature and consequences of black propaganda. American Sociological Review, 14(2)221-235.
Benkler, Y.FarisR.& RobertsH. (2018). Network propaganda: Manipulation, disinformation, and radicalization in American politics. Oxford University Press.
Bennett, W. L.& Livingston, S. (2020). A brief history of the disinformation age: Information wars and the decline of institutional authority. In S. Livingston & W. L. Bennett (Eds. )The disinformation age: Politics, technology, and disruptive communication in the United States (pp. 3-40). Cambridge University Press.
Boler, M.& DavisE. (2018). The affective politics of the “post-truth” era: Feeling rules and networked subjectivity. EmotionSpace and Society2775-85.
Boutyline, A.& Willer, R. (2017). The social structure of political echo chambers: Variation in ideological homophily in online networks. Political Psychology, 38(3)551-569.
Brummette, J.DiStasoM.VafeiadisM.& MessnerM. (2018). Read all about it: The politicization of “fake news” on Twitter. Journalism & Mass Communication Quarterly95(2)497-517.
ChagasV. (2022). WhatsApp and digital astroturfing: A social network analysis of Brazilian political discussion groups of Bolsonaro’s supporters. International Journal of Communication16(0)2431-2455.
Cho, C. H.MartensM. L.KimH.& Rodrigue, M. (2011). Astroturfing global warming: It isn’t always greener on the other side of the fence. Journal of Business Ethics, 104(4)571-587.
Davis, C. A.VarolO.FerraraE.Flammini, A.& MenczerF. (2016). BotOrNot: A system to evaluate social bots. Proceedings of the 25th International Conference Companion on World Wide Web273-274.
DawsonA.& InnesM. (2019). How Russia’s Internet Research Agency built its disinformation campaign. The Political Quarterly90(2)245-256.
Gallagher, R. J.Doroshenko, L.ShugarsS.LazerD.& Foucault Welles, B. (2021). Sustained online amplification of COVID-19 elites in the United States. Social Media + Society7(2)20563051211024956.
García-Orosa, B. (2021). Disinformation, social mediabots, and astroturfing: The fourth wave of digital democracy. Profesional de La Información, 30(6)e300603.
GoelS.Anderson, A.Hofman, J.& WattsD. J. (2015). The structural virality of online diffusion. Management Science62(1)180-196.
GrahamT.BrunsA.ZhuG.& Campbell, R. (2020). Like a virus: The coordinated spread of coronavirus disinformation. https://apo.org.au/node/305864.
Graphika& ObservatoryS. I. (2022). Unheard Voice: Evaluating five years of pro-western covert influence operations. https://cyber.fsi.stanford.edu/publication/unheard-voice-evaluating-five-years-pro-western-covert-influence-operations-takedown.
Guess, A. M.& LyonsB. A. (2020). Misinformation, disinformation, and online propaganda. In J. A. Tucker & N. Persily (Eds. )Social media and democracy: The state of the fieldprospects for reform (pp. 10-33). Cambridge University Press.
KaiserJ.Rauchfleisch, A.& Bourassa, N. (2019). Connecting the (far-)right dots: A topic modeling and hyperlink analysis of (far-)right media coverage during the US elections 2016. Digital Journalism, 1-20.
KellerF. B.Schoch, D.StierS.& Yang, J. (2020). Political astroturfing on Twitter: How to coordinate a disinformation campaign. Political Communication37(2)256-280.
KrafftP. M.& DonovanJ. (2020). Disinformation by design: The use of evidence collages and platform filtering in a media manipulation campaign. Political Communication37(2)194-214.
Liang, H.Fung, I. C. -H.TseZ. T. H.YinJ.Chan, C. -H.Pechta, L. E.SmithB. J.Marquez-LamedaR. D.MeltzerM. I.Lubell, K. M.& Fu, K. -W. (2019). How did Ebola information spread on twitter: Broadcasting or viral spreading? BMC Public Health, 19(1)438.
LukitoJ. (2020). Coordinating a multi-platform disinformation campaign: Internet Research Agency activity on three U. S. social media platforms2015 to 2017. Political Communication37(2)238-255.
Marwick, A. (2021). Critical disinformation studies. Center for InformationTechnology, and Public Life (CITAP). https://citap.unc. edu/research/critical-disinfo/.
MungerK. (2020). All the news that’s fit to click: The economics of clickbait media. Political Communication37(3)376-397.
PaulI.KhattarA.Kumaraguru, P.GuptaM.& Chopra, S. (2019). Elites tweet? Characterizing the Twitter verified user network. 2019 IEEE 35th International Conference on Data Engineering Workshops (ICDEW)278-285.
PollettaF.& Callahan, J. (2017). Deep storiesnostalgia narratives, and fake news: Storytelling in the Trump era. American Journal of Cultural Sociology5(3)392-408.
Rojecki, A.& MerazS. (2016). Rumors and factitious informational blends: The role of the web in speculative politics. New Media & Society18(1)25-43.
SchochD.Keller, F. B.StierS.& Yang, J. (2022). Coordination patterns reveal online political astroturfing across the world. Scientific Reports12(1)4572.
ShinJ.Jian, L.Driscoll, K.& BarF. (2017). Political rumoring on Twitter during the 2012 US presidential election: Rumor diffusion and correction. New Media & Society19(8)1214-1235.
UgarteR. (2020). The rise of anti-Asian hate in the wake of Covid-19. Items. https://items.ssrc.org/covid-19-and-the-social-sciences/the-rise-of-anti-asian-hate-in-the-wake-of-covid-19/.
Vargo, C. J.GuoL.& AmazeenM. A. (2018). The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. New Media & Society20(5)2028-2049.
WangY.McKeeM.TorbicaA.& Stuckler, D. (2019). Systematic literature review on the spread of health-related misinformation on social media. Social Science & Medicine, 240112552.
Woolley, S. (2018). The political economy of bots: Theory and method in the study of social automation. In R. Kiggins (Ed. )The political economy of robots: Prospects for prosperity and peace in the automated 21st century (pp. 127-155). Springer International Publishing.
YangK. -C.VarolO.DavisC. A.FerraraE.Flammini, A.& MenczerF. (2019). Arming the public with artificial intelligence to counter social bots. Human Behavior and Emerging Technologies, 1(1)48-61.
YangK. -C.VarolO.HuiP. -M.& MenczerF. (2020). Scalable and generalizable social bot detection through data selection. Proceedings of the AAAI Conference on Artificial Intelligence, 34(01)1096-1103.
Zhang, Y.Chen, F.& Lukito, J. (2023). Network amplification of politicized information and misinformation about COVID-19 by conservative media and partisan influencers on Twitter. Political Communication40(1)24-47.
ZhenL.YanB.Tang, J. L.NanY.& Yang, A. (2023). Social network dynamics, bots, and community-based online misinformation spread: Lessons from anti-refugee and COVID-19 misinformation cases. The Information Society39(1)17-34.
陈秋怡系复旦大学新闻学院博士研究生,汤景泰系复旦大学新闻学院教授。本文为国家社会科学基金重点项目“公共危机中的风险沟通与效果评估研究”(20AXW008)的阶段性成果。