信息个人化与作为传播者的智能实体
——2020年智能传播研究综述
■师文 陈昌凤
【本文提要】本文对从2020年中英文学术期刊中与人工智能相关的论文提炼出的五大前沿主题进行综述,包括:算法与信息个人化、作为传播者的智能实体、算法中介化社会、算法的时间性和算法伦理。总体来看,2020年的智能传播研究除了对前几年核心议题持续深化之外,还显示了两个新态势:其一,目前的研究不再聚焦于作为新生事物的算法本身,转而关注算法与既有社会结构的互动及对社会的中介作用;其二,哲学思辨性研究大量涌现,从媒介哲学层面对算法的技术原理和社会意义进行深入的诠释。
【关键词】智能媒体 智能传播 算法伦理 技术哲学
【中图分类号】G206
当前,人工智能技术进一步融入社会生活,在信息传播、社会治理、公共服务等方面取得更为广泛的应用。同时,以假乱真的深度伪造、以操纵舆论为目的的社交机器人、群体间的算法数字鸿沟等种种现象,也意味着算法对人类社会的影响愈加复杂。过去的2020年,国内外学术界积极探讨智能算法与人类生活的交织关系,本文将对国内外重要学术期刊上具有启发性的智能传播研究进行综述。
在英文论文方面,我们根据2020年Journal Citation Report(JCR)对期刊影响因子的评估,选出了传播学中影响力位于前十名的期刊,包括Journal of Advertising、Political Communication、Journal of Computer-mediated Communication、Communication Methods and Measures、Journal of Communication、New Media & Society、Information Communication & Society、 Digital Journalism、Communication Monographs、Communication Research。中文期刊包括《新闻与传播研究》、《国际新闻界》、《新闻大学》、《现代传播》、《新闻记者》、《新闻界》。我们在发表于2020年、截至2020年12月31日已被学术数据库收录的上述期刊论文中,挑选与算法、人工智能相关的主题,并结合文章代表性、主题聚类等因素进行进一步筛选,将过去一年的智能传播研究归纳成以下五个主题进行综述。
一、算法与信息个人化
相比传统新闻业对公共性的推崇,智能传播时代的个性化新闻推荐、对话新闻等在算法技术应用层面实现了个人定制的信息传播流,在价值取向上正在从大众化向个人化转向。但是技术和价值层面的个人化趋向,是否意味着传播学意义上的个人信息接触窄化?就此问题,学术界作出多元的探讨。有研究发现,基于流行度的新闻推荐算法有可能使政治环境极化,其中,新闻流行度计算所参考的群体至关重要。如果参考群体的党派偏好与新闻受众相同,新闻推荐算法会形成一个强化该偏见的循环;而当参考群体由党外用户构成时,那些政治上异质的新闻会被推荐,这虽然可以增加用户对不同观点的接触,但是却不会增加对此类信息的阅读和分享(Shmargad & Klar,2020)。对谷歌搜索引擎的研究则发现,虽然美国不同意识形态的群体在检索政治候选人信息时会采用不同的检索词,但是这些词在谷歌搜索引擎上返回的结果是相似的,即谷歌搜索引擎的算法在事实上表现出主流化效果(Trielli & Diakopoulos, 2020)。国内有学者对个性化推荐系统使用者的调查发现,用户对今日头条的使用时间越长,越容易收到主题、观点趋同的新闻,但是今日头条也同时增加用户对多个领域的新闻、新闻的多个侧面的接触(杨洸,佘佳玲,2020)。还有学者通过实验法探究用户与算法的互动如何影响信息可见性,发现受注意力经济驱使,算法在生成信息流时往往忽视个体差异化(聂静虹,宋甲子,2020)。
对“信息茧房”的理解,学术界表现出“算法偏倚”与“理论偏倚”两种特征。“算法偏倚”试图建立信息茧房与算法推荐的关系,这尚且符合桑斯坦提出该概念的语境;而“理论偏倚”则忽视了信息茧房只是一个假说的属性,将其视为理论,忽视了信息茧房存在性验证的瑕疵(丁汉青,武沛颍,2020)。还有研究指出,桑斯坦的信息茧房理论系基于美国两党政治的语境对新技术降低政治信息多元化以及政治信息极化的忧虑,虽有衍生空间和警示价值,却仍似是而非、缺乏有科学证据的概念。如今它被剥离了美国语境、两党政争的语境,被泛用至一般的信息环境,导致信息茧房的单纯信息环境很难在现实中出现;良好的新闻推荐算法可以使其使用者“意识到未知”并通过加深“个性化”来最大限度地增强“多样性”,进而实现降低信息茧房形成概率的目的。对信息茧房的探讨应从实验条件下的单纯信息环境回归到人们的真实信息环境中(陈昌凤,仇筠茜,2020)。此外,也有学者通过访谈探究了为何人们对算法是否形成信息茧房这一问题难以达成共识,研究发现,学者、媒体人、技术人员对“算法新闻推荐与信息茧房的关系”的理解存在显著差异,不同主体分别采用诸如技术、“反馈环”、权力观、警示性等多个路径以阐释该问题,差异化的阐释路径反映出各主体在知识结构、价值关怀方面的差异与偏见,而在对抗算法信息茧房的策略想象中,技术、新闻、产品三者之间存在内在逻辑和价值取向上的冲突(晏齐宏,2020)。
二、作为传播者的智能实体
智能技术使得计算机及程序逐渐拥有类人、甚至超人能力,越来越多的研究超越人机交互(Human Computer Interaction)的视角,转而基于人类—人工智能交互(Human AI Interaction)探讨人与智能技术的交互(Sundar, 2020)。虽然传统意义上的“交流”完全以人类为中心,仅把技术作为媒介看待,但是随着人工智能技术的兴起,越来越多的学者认为交流的主体不应局限于人类,并认为人类如何理解机器、如何建构与机器的关系、如何模糊人机界限应成为未来人机交流研究的要点(Guzman & Lewis, 2020)。实验研究发现,在人与机器进行互动的过程中,人会不自觉地将机器人拟人化,机器人不寻常的类人能力可以使人认为它是一个有意识的生命体,机器人的外表可以引发人们同情和保护的情感(Küster, Swiderska & Gunkel, 2020);但是在广告业中,这类拟人化显示出局限性,虽然人工智能技术的发展使AI代言人可以成为明星的替代者,但是其难以被受众视作独特的个体(Thomas & Fowler, 2020)。
社交机器人(social bots)作为社交媒体上活跃的可交流实体得到越来越多的关注。社交机器人是指由计算机软件操纵的社交媒体账户,它可以模仿人类的行为,比如自动发布内容、与其他用户互动等。研究发现,多个社交媒体平台上均存在大量自动化虚假账号,不同平台之间的虚假账号行为存在时间序列上的相关关系(Lukito, 2020);在同一个平台上,这些账号协同作用、分工明确,以实现倾向性的意见表达 (Linvill & Warren, 2020)。对Twitter上新冠疫情、中美贸易战等中国相关议题的研究发现,相关讨论中均有社交机器人的身影(师文,陈昌凤,2020a;张洪忠,赵蓓,石韦颖,2020)。在社交媒体成为信息流通关键渠道的背景下,社交机器人也影响了新闻的流通,基于Twitter的研究发现,虽然社交机器人难以成为意见领袖,但是它们参与了将传统媒体生产的新闻分享至社交媒体、推动新闻在社交媒体上扩散这两个环节,在第一级传播中,社交机器人的身份比较多元,最活跃的群体为无差别的新闻机器人;在第二级传播中,社交机器人往往表现出对特定新闻的特别兴趣(师文,陈昌凤, 2020b)。对受众端的研究发现,人类确实能识别出一些政治社交机器人,但是党派相关倾向会削弱其识别社交机器人的能力。比如共和党用户更可能将持保守观点的机器人当作人类,而民主党用户更可能将持保守观点的人类用户误认为是机器人(Yan et al.,2020)。
智能语音助手作为另一个可交流的智能实体也受到较多的关注。人们对智能助手的使用并不限于便利和娱乐,还有陪伴、宁神、自控等目的(Brause & Blank, 2020)。有研究基于对流行文化中机器人语音变化的研究,探究了人类如何将社会文化意义嵌入智能语音助手的语言行为,完成对语音助手的“预驯化”(pre-domestication),使其成为超越工具的社交角色,发现美国的智能语音技术使用崇尚自然的中产阶级、女性声音和人物角色,这些智能助手的声音和设计具有预驯化的意义,设计者将智能语音者的声音凝炼为一套文化的陈规,在这个过程无形中吸纳了社会、技术和政治的影响(Humphry & Chesher,2020)。
三、算法中介化社会
随着人工智能系统逐渐成为现代生活中常态化的基础设施,算法越来越深刻地参与信息流通及社会治理的各个环节,包括对社会生活规则和规范的重构、对社会秩序的冲击与构建、对意识形态空间的形塑等。换言之,人和社会的关系在某种程度上被算法塑造或改变。在这里,我们借用“中介化”概念(潘忠党, 2014),就算法如何使人类交往和互动成为中介了的过程、算法逻辑如何在中介机制中发挥作用等展开综述。
基于媒介哲学和社会理论批判的人机关系思考指出,人工智能并不仅仅是计算机科学发展的产物,它还是特定媒介文化前提下的人机混合物。传统上,人们认为人工智能模拟人类功能,并重现人的智力能力,但控制论视角则认为,人工智能并不是重现人的智力能力,而是通过捕获人类的认知能力将人类嵌入自身,形成混合的人机设备(Mühlhoff,2020)。研究发现,算法对社会生活的中介使旧有的社会形态发生变更与重塑。比如,在叙利亚难民安置中,经过算法自动决策代理之后的新数字景观虽然有更好的经济、就业方案,但是难民们认为社会文化特征在该过程中被低估(Masso & Kasapoglu,2020)。也有研究者发现,经过用户画像算法的作用,传统意义上的人类身份定义方式被改变,转而成为算法与人类的社会知识的有机互动过程,他们认为,对用户进行画像的聚类算法包括构建不具意义的类别、为类别重新赋予社会意义这两个过程,前者不依赖于人类社会的意义,生成大量超越现有解释的未定义类别,后者将语言的、社会的知识重新引入类别的界定中(Kotliar,2020)。
算法中介化社会中的平等问题也受到关注。用户的算法认知水平方面存在明显的人口统计学差异,有61%的人对算法没有了解或了解程度很低(Gran, Booth & Bucher, 2020)。在一篇以今日头条为例研究算法推荐与健康知识环境的构建关系的论文中,研究者也发现,用户需要与算法展开积极、有策略的互动才能提升算法的推荐效果,这一门槛可能会导致算法无法平等地为不同群体赋权(聂静虹,宋甲子, 2020)。也有研究发现,用户倾向于将社交媒体的算法信息流技术视为与自己的日常使用无关的固定产品,虽然他们对算法平台具有很高的批判意识,但这种批判意识并未转化为旨在改善算法关系的行为(Schwartz & Mahnke,2020)。
在算法对性别秩序的构建方面,研究发现社交媒体算法通过平台搜索机制、社区准则、算法推荐系统监管、消弭、规范女性相关内容,延续规范化的性别角色(Gerrard & Thornham,2020)。也有研究将游戏中算法的表征视作玩家进行意识形态协商的空间,认为算法不是隐藏在游戏中的抽象过程,而是存在于社会文化土壤之上的意义空间。当玩家努力对算法做出诠释时,他们实际上在进一步增强既有现实,算法在这个意义上巩固了既有的性别秩序(Trammell & Cullen, 2020)。
四、算法的时间性
时间是人类社会生活的重要维度,智能技术的出现颠覆了传统意义上的时间感(Lohmeier, Kaun & Pentzold, 2020)。按时间倒序呈现信息是社交媒体建构信息流的传统时间逻辑,但是越来越多的信息推荐算法尝试突破这一逻辑,力求让信息在“合适的时机”被用户看到。这反映出算法媒体格局正在产生新的时间体制,即“适时时间逻辑”。在这一逻辑下,基于相关性、个性化的“适时”取代实时成为主导性的时间逻辑,时间不再是多个用户共享“现在”的体验,而是由多元个体所激发的个性化时刻(Bucher, 2020)。也有学者关注了可以预测犯罪行为发生时间的智能警务系统,认为只要有足够多的数据,算法就可以依靠历史数据预测未来,进而使人类得以提前做出反应,这种对未来的预测模拟消解了传统上的时间观念,使未来坍塌至当下(Brause & Blank,2020)。
在更抽象的维度上,算法的时间性研究指向技术如何借由时间规制主体。通过对监狱中的智能技术的分析,研究认为,高效、自动化的算法被应用于堵塞囚犯的时间,即维持其生活的缓慢及不变性(Kaun & Stiernstedt, 2020)。也有论文探讨智能技术使用户着迷并扭曲其时间感的机制发现,智能手机的日常使用可以导致时间观念的改变和自我意识的丧失。但手机用户往往将这种冲突归咎于自己,将个人时间管理视为解决时间冲突的解决方案,而未考虑社交平台、内容提供者等主体的责任(Ytre-Arne et al., 2020)。
五、算法伦理
算法自身技术特征及其不当使用带来的伦理风险一直是学界关注的焦点。对于“深度伪造”(Deep Fake)问题,学术界未局限于“真—假”二元论,而采用较为思辨的视角。比如,有研究采用了建构主义的视角认为虚假与现实之间的绝对界限并不存在,生成方式并不绝对导致数据的优劣,人们有必要用一套基于实践和统计数据的专业标准来对特定合成数据进行评估(de Vries, 2020)。有研究认为,应超越传统的真假二元视角,不仅把“深度造假”当成一种技术景观,更应探讨其背后分裂的社会土壤和社交平台运作的注意力经济逻辑,与其在技术框架内进行瓦解与重建真实的“猫鼠游戏”,不如将其视为一个由多元力量(如政治、经济、技术)主导的社会现象(姬德强,2020)。
在人工智能系统的生产过程中,存在两种不平衡的权力——决策权和技术知识权力。一方面,管理者首先为人工智能系统运行提出要求;另一方面,技术人员在技术决策方面保留必要的自主决定权。因而,在工程师的职业想象中,其在法律规则、组织规范和用户要求的基础上构建AI系统,人工智能系统的道德责任是分散化的,工程师事实上扮演人工智能系统、用户、决策者之间的协调者,无法独自为人工智能系统的道德状况负责(Orr & Davis, 2020)。
现阶段人工智能是数据驱动型,机器主要是通过模拟人类的神经网络而进行计算,这代技术先天地具有不可解释性、不透明性。因此作为实现算法规制的路径的透明性,是无法回避、持续被探讨的重要话题。越来越多的研究者倾向于认为即使专家也无法实现算法透明,对该领域的研究需要另辟蹊径(Hargittai et al., 2020)。研究发现,算法专家们已经接受算法是黑箱这一事实,但他们不认为低透明度意味着低可信度。对于非专家群体而言,试图增加算法透明性很难具有可操作性,尤其考虑到模型是复杂的、时刻处在动态发展中的(Kolkman, 2020)。尽管有“打开算法黑箱”的呼吁,但这只是进行算法治理的辅助性工具——由于存在很高的技术门槛,对算法透明度建立有意义的理解难度很大;算法透明度受私权制度保护制约、企业合规成本极高;算法透明度还可能导致个体隐私数据暴露和信息滥用,引发恶意操控等负面效应。因此,纯粹的技术公开未必能实现复杂的价值观纠偏。另一方面,舆论监督、政府规制比增加透明性更可能在推进平台责任上起到作用(徐琦,2020)。越来越多的研究也试图通过“打开黑箱”之外的其他方式探究算法的运作规则,比如通过对微博热搜关键词的分析,反推出其时新性、流行性、互动性和导向正确的算法价值观(王茜,2020),也有研究通过对搜索引擎返回结果的内容分析识别其算法对政治人物的政党和性别偏见(Pradel,2020)。纵然算法透明度的推进存在诸多现实障碍,研究者仍认为,通过算法披露、解释、理解来提升算法透明性是算法伦理设计的重要一环,对于保障用户信息选择权和知情权十分必要(林爱珺,刘运红,2020)。此外,提升系统的透明度可以触发用户积极的反馈,也可以使用户更好地参与对AI系统能力的提升,建立人类与AI之间健康的共生关系(Sundar,2020)。
结语
算法深度嵌入社会生活,在信息生产分发及社会治理中扮演关键的角色。与此相对应的是,2020年学术界对算法的思考研究进一步抽象化、思辨化,在对传统核心议题(如信息茧房、算法伦理)进行持续探讨的前提下,呈现出两个明显的新趋势:其一,研究目光不再完全聚焦于作为新生事物的算法,转而关注算法与既有社会结构的互动及对社会的中介作用。在这个过程中,算法对既有社会秩序的延续与重构、算法与人的复杂交互过程成为学界关注的焦点。其二,大量哲学思辨型研究涌现,在媒介哲学层面对算法的技术原理和社会意义进行诠释,比如算法对传统时间观念的重构、作为人机混合物的算法等。算法并非仅以技术工具的角色存在于社会生活中,它已然是人与世界的交互中扮演重要角色的中介。■
参考文献:
陈昌凤,仇筠茜(2020)。“信息茧房”在西方:似是而非的概念与算法的“破茧”求解。《新闻大学》,(1),1-14+124。
丁汉青,武沛颍(2020)。“信息茧房”学术场域偏倚的合理性考察。《新闻与传播研究》,(7),21-33+126。
姬德强(2020)。深度造假:人工智能时代的视觉政治。《新闻大学》,(7),1-16+121。
林爱珺,刘运红(2020)。智能新闻信息分发中的算法偏见与伦理规制。《新闻大学》,(1),29-39+125-126。
聂静虹,宋甲子(2020)。泛化与偏见:算法推荐与健康知识环境的构建研究——以今日头条为例。《新闻与传播研究》,(9),23-42+126。
潘忠党(2014)。“玩转我的iPhone,搞掂我的世界!”——探讨新传媒技术应用中的“中介化”和“驯化”。《苏州大学学报(哲学社会科学版)》,(4),153-162。
师文,陈昌凤(2020a)。分布与互动模式:社交机器人操纵Twitter上的中国议题研究。《国际新闻界》,(5),61-80。
师文,陈昌凤(2020b)。社交机器人在新闻扩散中的角色和行为模式研究——基于《纽约时报》“修例”风波报道在Twitter上扩散的分析。《新闻与传播研究》,(5),5-20+126。
王茜(2020)。批判算法研究视角下微博“热搜”的把关标准考察。《国际新闻界》,(7),26-48。
徐琦(2020)。辅助性治理工具:智媒算法透明度意涵阐释与合理定位。《新闻记者》,(8),57-66。
晏齐宏(2020)。技术控制担忧之争议及其价值冲突——算法新闻推荐与信息茧房关系的多元群体再阐释。《现代传播(中国传媒大学学报)》,(3),59-65。
杨洸,佘佳玲(2020)。新闻算法推荐的信息可见性、用户主动性与信息茧房效应:算法与用户互动的视角。《新闻大学》,(2),102-118+123。
张洪忠,赵蓓,石韦颖(2020)。社交机器人在Twitter参与中美贸易谈判议题的行为分析。《新闻界》,(2),46-59。
BrauseS. R. & BlankG. (2020). Externalized domestication: smart speaker assistants, networks and domestication theory. InformationCommunication & Society23(5)751-763.
BucherT. (2020). The right-time web: Theorizing the kairologic of algorithmic media. New Media & Society22(9)1699-1714.
de VriesK. (2020). You never fake alone. Creative AI in action. InformationCommunication & Society1-18.
Gerrard, Y. & Thornham, H. (2020). Content moderation: Social media’s sexist assemblages. New Media & Society22(7)1266-1286.
Gómez-ZaráD. & DiakopoulosN. (2020). Characterizing Communication Patterns between Audiences and Newsbots. Digital Journalism, 8(9)1093-1113.
GranA.-B.BoothP. & Bucher, T. (2020). To be or not to be algorithm aware: a question of a new digital divide? InformationCommunication & Society1-18.
GuzmanA. L. & LewisS. C. (2020). Artificial intelligence and communication: A Human–Machine Communication research agenda. New Media & Society22(1)70-86.
Hargittai, E. et al. (2020). Black box measures? How to study people’s algorithm skills. InformationCommunication & Society1-12.
Humphry, J. & ChesherC. (2020). Preparing for smart voice assistants: Cultural histories and media innovations. New Media & Society1461444820923679.
KaunA. & StiernstedtF. (2020). Doing time, the smart way? Temporalities of the smart prison. New Media & Society22(9)1580-1599.
Kolkman, D. (2020). The (in) credibility of algorithmic models to non-experts. InformationCommunication & Society1-17.
Kotliar, D. M. (2020). The return of the social: Algorithmic identity in an age of symbolic demise. New Media & Society22(7)1152-1167.
KüsterD.SwiderskaA. & Gunkel, D. (2020). I saw it on YouTube! How online videos shape perceptions of mind, morality, and fears about robots. New Media & Society1461444820954199.
Linvill, D. L. & Warren, P. L. (2020). Troll factories: Manufacturing specialized disinformation on Twitter. Political Communication1-21.
LohmeierC.Kaun, A. & Pentzold, C. (2020). Making time in digital societies: Considering the interplay of mediadata, and temporalities—An introduction to the special issue. New Media & Society22(9)1521-1527.
LukitoJ. (2020). Coordinating a Multi-Platform Disinformation Campaign: Internet Research Agency Activity on Three US Social Media Platforms2015 to 2017. Political Communication37(2)238-255.
Masso, A. & KasapogluT. (2020). Understanding power positions in a new digital landscape: perceptions of Syrian refugees and data experts on relocation algorithm. InformationCommunication & Society23(8)1203-1219.
MühlhoffR. (2020). Human-aided artificial intelligence: Or, how to run large computations in human brains? Toward a media sociology of machine learning. New Media & Society22(10)1868-1884.
Orr, W. & DavisJ. L. (2020). Attributions of ethical responsibility by Artificial Intelligence practitioners. InformationCommunication & Society1-17.
PradelF. (2020). Biased representation of politicians in Google and Wikipedia search? The joint effect of party identity, gender identity and elections. Political Communication1-32.
SchwartzS. A. & Mahnke, M. S. (2020). Facebook use as a communicative relation: exploring the relation between Facebook users and the algorithmic news feed. InformationCommunication & Society1-16.
ShmargadY. & Klar, S. (2020). Sorting the News: How Ranking by Popularity Polarizes Our Politics. Political Communication37(3)423-446.
SundarS. S. (2020). Rise of Machine Agency: A Framework for Studying the Psychology of Human–AI Interaction (HAII). Journal of Computer-Mediated Communication25(1)74-88.
ThomasV. L. & Fowler, K. (2020). Close Encounters of the AI Kind: Use of AI Influencers As Brand Endorsers. Journal of Advertising1-15.
TrammellA. & Cullen, A. L. (2020). A cultural approach to algorithmic bias in games. New Media & Society1461444819900508.
Trielli, D. & DiakopoulosN. (2020). Partisan search behavior and Google results in the 2018 US midterm elections. InformationCommunication & Society1-17.
Yan, H. Y. et al. (2020). Asymmetrical perceptions of partisan political bots. New Media & Society1461444820942744.
Ytre-ArneB. et al. (2020). Temporal ambivalences in smartphone use: Conflicting flowsconflicting responsibilities. New Media & Society22(9)1715-1732.
师文系清华大学理学院地球系统科学系博士生,陈昌凤系清华大学新闻与传播学院教授、常务副院长。本文为国家社科基金重大项目“智能时代的信息价值观引领研究”(项目编号:18ZDA307)的阶段性成果。