上一期
下一期
目录
  • 55页
  • 56页
  • 57页
  • 58页
  • 59页
  • 60页
  • 61页
  • 62页
  • 63页
  • 64页
放大 缩小 默认 上一篇 下一篇
“算法崩溃”时分:从可供性视角理解用户与算法的互动
■皇甫博媛
  【本文提要】全面理解“算法黑箱”,需要对日常生活中用户与算法的互动予以考察。基于想象可供性理论,本文提出一个算法可供性的分析框架,并使用扎根理论考察“算法崩溃”时用户的话语实践。研究发现,物质性、中介体验和情感态度构成了“算法想象”的核心元素,勾勒出算法可供性的基本面貌。而当“算法崩溃”,想象的“破灭”之下又清晰地浮现出用户与算法之间的若干互动逻辑,表现为算法人格化、自我归因和群体想象。算法可供性以一种用户认知和想象的形式呈现出来,强烈影响着用户的算法使用策略和行为。
  【关键词】抖音算法 想象可供性 算法可供性 算法崩溃 用户话语
  【中图分类号】G206
一、引言
  “你就爱看那些土的,所以刷到的都是土的”。这是2020年11月16日#抖音推荐#热搜话题中的一条原创微博。前后几天内,至少5700位微博网友围绕该话题展开讨论,讨论次数达1.4万。网友热议的原因是当天抖音算法疑似出现故障,为抖音用户大量推送“土味视频”。这构成了用户与算法互动的一个特殊时刻。
  算法是一组定义好的步骤,用于处理指令或数据以产生输出(Gillespie, 2014)。移动互联时代,算法构成了平台重要的基础设施和技术架构。通过一系列算法,平台可以高效地管理内容和用户活动。抖音等社交平台,更是以“个性化推荐算法”打造宣传点,强调“根据用户的爱好来更新用户喜爱的视频”。截至2020年9月,包含抖音火山版在内,抖音的日活跃用户超过6亿(白金蕾,2021)。算法已然渗入普通人的日常生活。
  然而,我们仍然对“算法黑箱”知之甚少。针对算法如何运行,相关研究形成了不同的路径,例如逆向工程(reverse engineering)(Bishop, 2018)、查看平台自身提供的文档,或是对软件开发人员和算法工程师进行深度访谈(van Dijck, Poell & de Waal, 2018:41)。但对于算法与用户在日常生活和实践中的互动考察较少,包括人们如何认识、理解、感知算法,对算法的使用模式和态度,算法如何用于组织他们的生活等。缺乏对人们日常生活经验的把握,就无法对算法的运行机制和社会影响进行充分的洞察。
  因此,本文试图在一个“算法崩溃”的特殊时刻,以想象可供性理论为基础考察算法与用户的互动。基于算法可供性的解释框架,本文尝试解答:算法以何种方式嵌入用户的日常生活?人们如何理解和感知作为日常生活重要组成部分的算法?这种对算法的认知又如何影响他们对算法的应对和使用?
  
二、算法可供性的提出
  (一)从“算法想象”到“算法游戏”
  算法作为平台的重要架构,广泛应用于各类专业平台和基础设施平台,塑造了互联网用户的在线体验。然而,算法及其内部运作机制仍然是平台的“黑箱”,从而导致“问责制、程序和透明度”等一系列问题(Tufekci,2015)。对于用户而言,算法系统及其庞大的数据库基本上是不可见的。平台公司为保持竞争优势,也不会向用户过多地公开关于算法的技术细节。此外,平台还会根据其业务优先级更新和转换算法,在未经用户同意或不知情的情况下塑造他们所看到和参与的内容(Bucher, 2018)。例如,大多数Facebook用户并不知道自己所看到的新闻内容是通过算法过滤的(Eslami et al., 2015)。相似地,问卷调查显示67%的中国用户在使用时能够感知到推荐算法,但对其背后的运行规则并不了解(黄忻渊,2019)。
  然而,在用户与算法的互动过程中,算法并非单方面决定用户的行为。用户以各种不同的方式将算法嵌入自己的生活,通过不同的方式使用算法,甚至抵制、颠覆和改写算法的意图(Kitchin,2017)。用户对技术变化的响应是基于他们自己的假设、期望和对系统如何工作的知识,即民间理论(folk theory)(DeVito, Gergle & Birnholtz, 2017;Siles et al., 2020)。这种对于算法的默会知识而非专业知识,指导着个体对算法的感知和行为反应。Bucher(2017)将其进一步总结为“算法想象”(algorithmic imaginary),指出普通用户通过算法想象来弥合他们对日常算法系统理解上的差距,并指导着个体如何使用算法。
  不论用户对于算法的理解是否正确,他们对算法的感知都会影响他们的行为,并构成了两者之间重要的互动机制。例如,在内容生产领域,基于对算法可见性的追求,YouTube用户基于“算法信号”(algorithmic signals)进行自我优化,并据此调整自己的内容生产实践(Bishop, 2018);Instagram的用户则通过“玩可见性游戏”(playing the visibility game),采取一系列算法策略以挑战算法自动化的内容排序(Cotter, 2019)。对用户想象与认知的强调,凸显了用户在与算法互动过程中的能动性与自主性。
  (二)可供性
  可供性理论为进一步考察主体和技术的互动关系提供了支撑。可供性(affordances)概念起源于生态心理学领域,指环境“提供给动物的东西,无论是好的还是坏的”(Gibson,1986:127),用以解释生物与环境之间特定的对应关系。后来这一概念被引入设计学研究中,定义为“事物的感知和实际性质,主要是决定如何使用事物的基本属性”(Norman,1988:9),因此可供性也被广泛用于评估设计的有效性。基于技术为社会互动提供的可能性,Gaver(1996)提出了“技术可供性”(technology affordances),指出技术的物质属性能够形塑社会文化和交往行为,使可供性进一步成为以用户为中心的考察技术的有效理论框架。
  虽然可供性的定义在不同领域各有侧重,但其根本属性得到了广泛的强调,即可供性是一种关系属性,存在于主体和技术之间的互动中,包括感知、行动、交往等。Nagy和Neff(2015)主张重视想象的作用,提出想象可供性(imagined affordances)概念来考察人与技术的互动,指出用户通过中介化的体验(mediated experiences)、物质性(materiality)和情感(affect)三个维度对技术的意义进行解构和重构。用户对他们所使用的媒介技术有特定的期待,而这些期望可能会塑造他们与媒介的接近程度、互动行为与使用方式。对情侣应用程序用户的深度访谈结果表明,可供性存在于多个层次,包括基础设施、设备、应用程序、功能等(Mcveigh-Schultz & Baym,2015),人们在与技术互动时,会根据自身情况战略性地在这些层次之间进行移动、融合或替代。
  就算法而言,与计算机科学家或从业者将算法视为一系列精确的代码指令不同,用户往往从自身使用的角度理解算法,例如算法所带来的情绪、感受和影响(Bucher,2017)。因此,可供性可作为一个理解用户与算法之间互动机制的理论起点,不仅能考察用户作为信息的产消者(prosumer)的能动性,也有助于观察媒介技术的适应性和学习性(张志安,黄桔琳,2020)。因此,本文试图从可供性的视角切入,增进对用户和算法之间互动的理解。具体而言,本文探讨了如下研究问题:(1)在日常生活中,算法的可供性体现在哪些方面?(2)在此基础上,用户对算法形成了怎样的想象或期望?(3)又构成了用户和算法之间怎样的互动模式?
  
三、研究方法
  (一)破坏性试验
  在常人方法学研究中,“破坏性试验”(breach experiment)是一种重要的研究策略。该方法使用与规则结构等不相符的研究策略,让被调查者进行规则打乱之后的行为实践,力图发现普通人在社会结构与文化中的能动作用(张翠霞,2011)。本文尝试将这一方法引入传播学,以抖音算法为例,考察“算法崩溃”时分用户与算法的互动。
  抖音是中国网民使用比例和频率最高的算法推荐类App(周葆华,2019)。2020年11月16日,#抖音推荐#话题冲上微博热搜榜,原因是当天抖音推荐算法疑似出现故障。算法没有按照人们期望的方式运行,即算法的“崩溃”(algorithm breakdown)时刻(Bucher,2017),通常会导致用户的注意力转向算法系统如何工作(Bishop,2019)以及人与算法之间的关系。“算法崩溃”作为一种天然的“破坏性试验”,为考察用户与算法的互动提供了绝佳的案例。
  (二)数据获取
  本研究使用python程序抓取微博热搜“抖音推荐”下的全部原创微博进行文本分析。经过数据清洗和人工筛查,删除重复或与主题无关的内容,共收集了894条原创博文文本(不包含评论),时间跨度为2020年11月15日至22日。
  (三)扎根理论
  扎根理论方法是一种以归纳逻辑为基础的质性研究方法,通过系统收集和分析资料衍生理论(Glaser & Strauss,1967:3)。本文使用开放式编码、关联式编码和选择式编码三级编码程序,对收集到的文本材料进行分析。编码类别在编码过程中得到创建和不断完善,主要包括以下几个方面:物质性、中介体验、情感态度、算法人格化、自我归因、群体想象(表1 表1见本期第58页)。
  
四、算法想象:基于算法可供性的视角
  在Bucher(2017)提出的“想象可供性”(imagined affordances)的基础上,本文首先建构出一个算法可供性的理论框架。研究发现,物质性、中介体验、情感态度等维度,是用户话语中算法想象的核心元素,勾勒出算法可供性的基本面貌。
  (一)物质性:以“个性化”为核心的物质属性
  物质性可以被理解为某种理论观念的实例,以及特定背景下的意义(Leonard,2010)。从这个角度出发,本文将物质性界定为实现某种观念的物质基础或物质属性。在用户眼中,算法最突出的理念即为“个性化”,而算法的原理、功能、设置、界面等物质属性也围绕这一理念展开。
  作为抖音算法的一大宣传点,个性化理念在用户看来是显性的。在用户的话语实践中,“我的日报”(the Daily Me)已成现实,“我的抖音”、“我的专场”、“我的专属App”等称谓屡见不鲜,通常与“大数据推送”、“个人喜好”、“个性化推荐”等表述相关联,共同凸显了算法的“个性化”理念。虽然用户对“个性化”的实际效果褒贬不一,但“抖音就是你喜欢什么它给你推荐什么”已经成为共识,“从来只会推荐我喜欢看的,不喜欢的从来不会出现”。个性化理念构成了用户使用算法、与算法展开互动的重要基础,“抖音爸爸最知道我的喜好,所以我才喜欢用”,“当初喜欢刷抖音,就是因为能根据个人爱好刷成专属的App”。
  个性化理念贯穿于用户对算法物质属性的认知,并与用户的使用体验交织在一起。物质性在一定程度上是由其社会性所塑造的(Nagy & Neff, 2015),用户感知到的算法物质性已经不再是独立的、不可更改的特征,而是经过了一系列的选择和重塑。例如,用户认为抖音算法“个性化”的推荐原理包括关注、点赞、搜索历史、播放时长、热门度等,此类认识来源于用户的感知,更来源于用户和算法的长期交互体验。在用户对算法原理的理解中,当用户以“给某个领域(美食、帅哥美女……)点赞或者停留观看”等方式对算法作出反馈,接下来“刷到的视频将全是此类”,算法还会“很成熟地把你划分到某个用户群体并猜测你会喜欢的内容”。由此,用户通过对算法技术界面的使用和参与实现了“个性化”,“被自己刷成专属软件”、“凭实力把抖音变成某某专属App”。
  (二)中介体验:跨平台对比下的策略行动
  算法可供性的另一重要维度是中介体验。算法改变了个人体验,为人们的感知增添了新的维度。Nagy和Neff(2015)认为,中介化体验是传播技术的可供性不同于其他类型工具和环境的方式。在用户话语中,不同技术平台之间的差异是造成用户体验差异的重要因素,算法带来的中介体验也在不同平台之间的对比中得以显现。
  抖音常被用户拿来与其他社交媒体平台作对比,如微博、快手等。不同的平台拥有不同的技术属性和风格调性,也承载着用户不同的信念、期望和需求。与微博相比,抖音“投诉效率高、根据爱好推荐视频、评论区比较和谐”,高效的推荐反馈机制能够使用户自主选择接触的内容,从而较高程度地实现自主性,“划过不想看内容就真的不会再推了,就冲这一点也比微博好用”。与快手对比,抖音算法输出的内容被认为是“年轻化”、“个性化”、“新潮”的,快手则是“土气”、“接地气”、“真实”的,“快手是50+乡村土味,抖音是18+年轻人气息”。对于追星群体和有着强烈兴趣爱好的群体而言,抖音算法推荐的内容能够较好地满足他们的需求,如偶像明星、帅哥美女、搞笑、宠物、美食等,营造出的体验是“世间最后一方净土”、“人间真实”。
  不同平台带来的截然不同的中介体验,强烈影响着用户的使用策略和行为。技术系统的可供性允许和鼓励某些活动,同时阻止或禁止另一些活动(Huvila,2009)。有用户认为,抖音的氛围让人可以畅所欲言,而在微博发表言论经常被攻击,所以她在微博“都只说好的话”,在抖音则“想说什么说什么”。然而,与其他平台的算法相比,抖音算法也有“窃听”、“监视”之嫌,有时会抑制用户与算法的进一步互动,“跟舍友讨论和面、包饺子的问题,一打开抖音就是这个……接着我往后刷到的所有视频全是土味视频,吓得我立马把抖音关了”。
  (三)情感态度:个人目标与嵌入情境
  用户对算法的情感态度建立在算法的物质性特征与中介体验的基础上,且与个人目标和期望密切相关。当人们试图将自己的目标与技术的物质性相协调时,会积极地构建感知可供性(Leonardi,2011),产生积极的感知和应对。反之算法就会得到差评,并抑制进一步的互动。用户对于算法产生的积极情感评价包括“喜欢”、“好笑”、“快乐”、“治愈”等,例如有用户认为,“除了吴亦凡我没看过其他的,所以抖音也不会给我推荐别的,我太快乐了”。用户的目标与算法的物质性特征与中介体验相一致,由此构建出积极的情感态度,同时乐于与算法展开进一步的互动。也有用户对算法产生某些负面情感,如“疑惑”、“厌烦”、“惊吓”、“抱怨”等,原因正在于算法输出结果与个人目标期望不符,“点赞一个东西就给我推同类的,看得我都烦死了”。
  此外,用户对算法的情感态度还高度依赖个人化的、特定的嵌入情境。这种情境并非静态的,而是动态变化的。当算法不合时宜、不分场合地进行推荐,会极大地影响用户对算法的态度和应对。当算法在用户“心情不好”时,却“一直推荐丧的”,或“在大半夜推荐恐怖视频”,或是“晚上饿了的时候推荐吃播”,都将极大地影响用户的使用体验和情感评价。当用户对算法产生负面情感时,会采取某种特定的使用策略或行为进行协调,如快速划走、屏蔽、不感兴趣、举报等,甚至以彻底退出账号、注销账号或卸载软件等方式对算法进行抵抗。
  
五、“算法崩溃”时分:用户与算法的互动模式
  如前文所述,用户围绕物质性、中介体验和情感态度对算法形成特定的想象与感知。但当“算法崩溃”,即算法实际输出结果与算法想象不符,又会引发用户的何种应对策略及实践?此时的用户话语是算法可供性在特殊时刻的集中体现,用户与算法之间的互动模式由此浮现,包括算法人格化、自我归因和群体想象三个方面。
  (一)算法人格化:类人化的个性、意图和行为
  用户可能会与技术形成强烈的情感关系,将某些情感投射到技术上(Turkle,2004)。针对计算机的实验表明,用户往往无意识地将技术视为具有情感的“社会角色”并与之互动,还会将社会规则和期望应用于机器(Nass & Moon,2000)。与此类似,算法系统也被视作具备类人化的身份,拥有人格化的个性、意图和行为。这一倾向在“算法崩溃”时分体现得尤为明显。
  首先,话语中频繁出现“我的抖音就很懂我”、“算法非常聪明”,一个“深谙用户心理”的形象跃然而出。不当的算法推荐结果被冠以“误人子弟”、“三观不正”,传递“负能量”,这些表述都为算法赋予了个性和人格特征。其次,算法被视作具备意图的主体,能够表现特定的意愿,包括对用户显示出“暗示”、“鄙视”、“误解”、“忽视”、“恐吓”等,“总在抖音刷到撒狗粮视频,是看不起我们单身狗么”。此外,算法还能以用户为对象采取一定的社会行为,频繁推荐结婚相关的视频被用户认为是算法系统向自己“催婚”,离异相亲广告则被用户解读为算法“想让我找二婚的”。算法输出结果的变动也成为“机器人的试探”:“昨天晚上9点左右,准备看看我们肖老师就睡觉的,结果点进去惊呆了,瞌睡都吓没了……第一反应就是,这机器人在试探我吗?”由此,算法系统被塑造为一个拥有独特个性、自主意图和行动能力的人格化主体。
  然而,与以往研究不同的是,算法的崩溃并未提醒用户其技术属性而使人格化特征削减,反而使用户更加强调算法的人格化。“我觉得他猜不到我的心思了,都监控我手机了,不知道我平时看些个啥吗”?当算法出现变动时,用户对其“洞察人心”的效果仍然坚信不疑,甚至对算法产生了一定程度的“移情”(empathy),尝试站在算法的立场上体验该事件。这种算法人格化的互动模式植根于用户的算法想象,也为用户建立自我归因倾向提供了基础。
  (二)自我归因:从“我的错”到“怀疑自我”
  当“算法崩溃”,用户的认知归因集中于“是我的错”、“我出问题了”、“我不配”、“我自己土”,将结果归咎于自身的个人兴趣、使用行为等主观因素,而较少与算法相联系。以往研究表明,当算法推荐效果不佳时,Facebook用户倾向于将其归因为政治分歧或自己不讨人喜欢的行为,而非新闻推荐算法本身(Eslami et al.,2015)。对此,本文得出了相似的结论。虽然多数讨论具有戏谑和自嘲的意味,但用户潜意识中对算法的认知仍可见一斑,即算法的正确性强于人类。其背后的逻辑是:算法和大数据是“纯良无害”的技术,而造成“算法崩溃”的罪魁祸首是使用算法的人。一位28岁的自媒体博主的想法颇具代表性:“算法之所以出现问题,是因为用户把 AI 算法‘养坏’了,而且是‘养坏’了就回不去了。”
  这种自我归因倾向突出表现为对“个性化”理念的认知,也从侧面反映出算法想象对用户产生的深远影响。“你就爱看那些土的,所以刷到的都是土的”、“说抖音推荐怎么怎么的土味视频,你们扪心自问自己平时到底在搜些什么”等话语,通过强调算法的物质性原理与个性化理念,自然而然地将算法输出结果与用户自身的喜好特质联系起来,进而把“算法崩溃”归因于用户自身。再如“经常点不喜欢,导致现在抖音给我推荐的都是一些什么玩意”、“大数据了解一下,你们嘴上说不喜欢身体很诚实啊”,则是突出用户对算法的使用行为造成了算法推荐的结果,类似的叙述共同助推了自我归因的倾向。
  自我归因甚至反过来影响到用户的自我评价和认知。算法是“不会出错的”,在理解人们的内心方面几乎拥有毋庸置疑的准确性和权威。因此,当“刷到的全是卖货和大爷大妈”,用户会转而怀疑自己的“气质”、“审美”、“喜好”、“需求”或“品位”,并质疑“难道我内心深处真的是喜欢看这种吗?”自我归因造成的结果是,当用户的认知与算法推荐产生冲突,用户可能更加倾向于进行自我调适,而非对算法系统做出干预。
  (三)群体想象:“代际差异”下的群体区隔
  基于算法可供性,被聚集在算法终端的用户产生了一种群体想象。他们借此不断对照自身,并识别和区分群体身份。有趣的是,这个过程与年龄和代际紧密相连。通过建构代际差异叙事,用户生成的这套话语进一步造就了群体的划分与区隔。
  群体想象的作用机制主要体现在两个方面:第一,借助代际差异进行自我认知和自我识别。在用户话语中,算法用户之间存在着明显的年龄差异,“我的抖音都是和我年龄差不多的也都是我爱看的,我妈我爸抖音里全是土味视频或者有很多三观不正的评论”。这种以年龄为基础的想象中的“区隔”,重新配置了算法用户之间的关系和群体结构,也在一定程度上重塑了数字空间中的群体身份与认同。“算法崩溃”时刻的用户话语尤其凸显了这种代际差异,例如“怀疑自己登陆了爸妈的账号”、“我是来看小哥哥小弟弟的,不是来看叔叔阿姨大爷大妈们的爱恨情仇的”、“一想到那些天天看小哥哥小姐姐的人刷到大爷大妈我就想笑”,不同代际之间的反差进一步固定和强化了用户对自我及自我所属群体的想象。
  第二,参照群体标签,主动规范行为。想象公众的价值在于调整一个人的行为和自我展示,使之符合集体的预期规范(Boyd,2010)。这种以群体想象为基础的群体标签一旦建立,对用户自身起到的可能是归一化、主流化的作用。例如以下表述:“想当初我最不爱玩的就是抖音……我一20岁小姑娘,一刷抖音都是一堆大老娘们扭秧歌的视频,整得我好有年代感,可是我想看帅哥美女啊,有时候我都疑惑,为什么别人抖音都是帅哥美女我没有,后来我就坚持坚持坚持,只要刷到那些我就快划走,好不容易出来帅哥美女我就赶紧点赞,终于现在我的抖音也是正常人的抖音了。”
  在这个例子中,“20岁小姑娘的抖音”和“有年代感的抖音”作为以代际为特征的群体标签,经过不断地“看”、“刷”等动作被固定下来。此类群体标签在用户与算法的互动中不断固化,不仅影响了用户的群体认知,“为什么别人抖音都是帅哥美女我没有”,还进一步对用户的行为起到示范作用。用户经常参照群体想象主动地加以模仿,并规范自身与算法的互动行为,“只要刷到那些我就快划走,好不容易出来帅哥美女我就赶紧点赞”;还将时刻评估自己的行为是否符合群体特征,“终于现在我的抖音也是正常人的抖音了”,进而使自己不断地向这个想象中的群体靠拢。
  
六、结论
  在一个“算法崩溃”的热点时刻,算法用户纷纷加入关于算法的集体讨论,形成了特殊的数字空间的话语聚合。这一经验现象构成了本文研究的起点。本文意图以此作为案例,从用户的视角出发,探究其对算法的理解、认知,进而发现两者之间的互动模式。以想象可供性理论为框架,试图回答:算法如何与用户的日常生活相勾连?用户对算法的认知又如何影响他们对算法的应对和使用?
  研究发现,用户对算法的认知呈现为一种“算法想象”,包括物质性、中介体验和情感态度等重要元素,共同勾勒出算法可供性的基本面貌。物质性以个性化理念为核心,贯穿于用户对算法物质属性的认知,并与用户的使用体验交织在一起;在不同平台之间的对比中,算法为用户带来的中介体验得到凸显;用户对于算法的情感态度则高度依赖用户的个人目标以及特定的嵌入情境。这种算法想象强烈影响着用户和算法在日常生活中的互动实践。而当“算法崩溃”,想象的破灭之下又清晰地浮现出用户与算法之间的若干互动逻辑。算法系统被用户话语塑造为具备个性、意图和行为的人格化主体,承载着用户的情感,甚至会影响用户的自我评价和认知。这种互动模式对人机关系的影响可能是深远的,因为用户倾向于在算法出现问题时通过自我归因进行调适,而非干预算法本身。算法还在一定程度上重塑了平台与用户之间的关系格局,代际差异叙事的建构助推了这一趋势,并进一步固化以群体想象为基础的群体标签,产生群体身份的分化与区隔。
  需要注意的是,不论是人们对算法系统的理解还是算法系统本身,都处于不断地建构、协商、情景化和不同的解释过程中(Geiger,2017)。本文所呈现的话语情境——“算法崩溃”所导致的社交媒体上的的用户话语聚合,也可以被视为一次具有表演性质的“展演”(performance),强调的是新技术用户同时具有内容消费/观看和内容生产/表演的双重角色(陆晔,赖楚谣,2020)。从这个角度看,微博这个特殊场景下的话语文本生成也有其语境和策略。一方面,用户的这套叙事文本带有“社交展演”的性质,通过在社交媒体营造出“共在”的感性氛围,强调“吐槽”等主体参与性和个人情绪的表露,并以此来构筑集体身份和群体认同,“原来不是我一个人这样”、“看到大家都是我就放心了”。另一方面,用户借此契机进行创造性地阐释和自我诉求的表达,如对微博平台“渣浪”的控诉、大数据对个人隐私的侵占等。此时,用户话语跳脱出算法想象的框架,在社会交往、平台社会、数字隐私等维度上衍生出更为丰富的意涵。
  技术绝不仅仅是“工具”,而是激发性的对象(Turkle,2004)。本文所得出的结论有助于丰富对算法以及技术可供性的理解,重新思考技术与人、社会之间的互动。算法可供性不应被视为稳定不变的技术常量,而应立足于不同的情境和日常实践。正如Kitchin(2017)所言,算法应被视为偶然的、个体发生的和行为性的,并嵌入更广泛的社会架构中。随着算法对人们生活的渗透,算法如何重塑人的感知、交往、行动,以及如何引发社会关系和社会结构层面的重组和变革,都值得进一步深入考察。因此,本文所提出的概念可作为算法可供性理论探究的起点,具有一定的理论潜力。此外,不同平台之间的差异与分野逐渐显露,平台作为重要的变量也应纳入算法研究的范畴。如何理解算法用户跨平台的技术使用?不同平台架构下的算法可供性的差异意味着什么?更具人格化特征的算法,如语音识别、人脸识别等人工智能技术,是否会激发更多的社会反应和社会互动?
  本文仍存在一些不足。第一,研究样本的偏差。微博用户并非算法的唯一使用主体,从微博话语中得出的结论难以推及整体。单就本文提出的“代际差异”叙事下的群体想象来看,至少还存在着不同年龄段的算法用户群体需要予以关注。第二,研究案例的局限。本文选择破坏性试验的研究方法,打破常规虽有助于产生理论洞见,但受制于此次“算法崩溃”产生“破坏”的影响范围有限,难以全面呈现用户日常生活的情境,对用户和算法之间互动的整体性考察还有待其他研究加以完善。■
  
参考文献:
白金蕾(2021)。抖音日活破6亿,张楠称做社交是根据用户需求的顺势而为。检索于https://xw.qq.com/amphtml/20210128A0G1MT00.
黄忻渊(2019)。用户对于算法新闻的认知与态度研究——基于1075名算法推荐资讯平台使用者的实证调查。《编辑之友》,(6),63-68。
陆晔,赖楚谣(2020)。短视频平台上的职业可见性:以抖音为个案。《国际新闻界》,(6),23-39。
张翠霞(2011)。民俗学“生活世界”研究策略——从研究范式转化及常人方法学的启示谈起。《民俗研究》,(3),107-117。
张志安,黄桔琳(2020)。传播学视角下互联网平台可供性研究及启示。《新闻与写作》,(10),87-95。
周葆华(2019)。算法推荐类App的使用及其影响——基于全国受众调查的实证分析。《新闻记者》,(12),27-37。
BishopS. (2018). Anxietypanic and self-optimization: Inequalities and the YouTube algorithm. Convergence24(1)69-84.
BishopS. (2019). Managing visibility on YouTube through algorithmic gossip. New Media & Society21(11-12)2589-2606.
BoydD. (2010). Social network sites as networked publics: Affordancesdynamics, and implications. In Z. Papacharissi (Ed.)A networked self: Identity, communityand culture on social network sites (pp. 39-58). New York: Routledge.
BucherT. (2017). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms. InformationCommunication & Society20(1)30-44.
BucherT. (2018). Cleavage-control: stories of algorithmic culture and power in the case of the YouTube ‘Reply Girls’. In Z. Papacharissi (Ed.)A Networked Self and PlatformsStoriesConnections (pp. 141-159). New York: Routledge.
CotterK. (2019). Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram. New Media & Society21(4)895-913.
DeVitoM. A.Gergle, D. & BirnholtzJ. (2017). Algorithms ruin everything: #RIPTwitterfolk theories, and resistance to algorithmic change in social media. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (pp. 3163-3174). New York: ACM Press.
EslamiM.RickmanA.VaccaroK.Aleyasen, A.VuongA.Karahalios, K.. . . SandvigC. (2015). “I always assumed that I wasn’t really that close to [her]”: Reasoning about invisible algorithms in news feeds. In B. Begole & J. Kim (Eds.)Proceedings of the 2015 Annual Conference on Human Factors in Computing Systems (pp. 153-162). SeoulRepublic of Korea: ACM Press.
Gaver, W. W. (1996). Situating action ii: affordances for interaction: the social is material for design. Ecological Psychology, 8(2)111-129.
GeigerR. S. (2017). Beyond opening up the black box: investigating the role of algorithmic systems in Wikipedian organizational culture. Big Data & Society4(2)1-14.
GibsonJ. J. (1986). The ecological approach to visual perception. New York: Taylor & Francis.
Gillespie, T. (2014). The relevance of algorithms. In T. GillespieP. J. Boczkowski, & K. A. Foot (Eds.)Media technologies: Essays on communicationmaterialityand society (pp. 167-193). Cambridge: MIT Press.
GlaserB. G. & StraussA. L. (1967). The discovery of grounded theory: Strategies for qualitative research. New York: Aldine De Gruyter.
HuvilaI. (2009). Ecological framework of information interactions and information infrastructures. Journal of Information Science35(6)695-708.
Kitchin, R. (2017). Thinking critically about and researching algorithms. InformationCommunication & Society20(1)14-29.
Leonard, P. M. (2010). Digital materiality? how artifacts without matter, matter. First Monday, 15(6). Retrieved from http://firstmonday.org/article/view/3036/2567.
LeonardiP. M. (2011). When flexible routines meet flexible technologies: Affordance, constraint, and the imbrication of human and material agencies. MIS Quarterly35(1)147-167.
Mcveigh-Schultz, J. & Baym, N. K. (2015). Thinking of you: vernacular affordance in the context of the microsocial relationship appcouple. Social Media + Society1(2)1-13.
NagyP. & Neff, G. (2015). Imagined affordance: reconstructing a keyword for communication theory. Social Media + Society1(2)1-9.
NassC. & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1)81-103.
NormanD. A. (1988). The design of everyday things. New York: Doubleday.
Siles, I.Segura-CastilloA.Solís, R. & Sancho, M. (2020). Folk theories of algorithmic recommendations on Spotify: Enacting data assemblages in the global south. Big Data & Society7(1)1-15.
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: emergent challenges of computational agency. Colorado Technology Law Journal13(2)203-216.
TurkleS. (2004). whither psychoanalysis in computer culture? Psychoanalytic Psychology, 21(1)16-30.
van DijckJ.PoellT. & de Waal, M. (2018). The platform society: Public values in a connective world. Oxford: Oxford University Press.
  
皇甫博媛系浙江大学传媒与国际文化学院新闻传播学博士研究生。
  
  
  
  
主管单位: 上海报业集团
主办单位: 上海报业集团      上海社会科学院新闻研究所