“首例算法推荐案”中短视频平台的注意义务认定研究
■周书环
【本文提要】在我国“首例算法推荐案”一审审理中,法院认为相比没有采用算法推荐的短视频平台,采用算法推荐的平台应当“有能力知道其用户大量地实施了涉案侵权行为”,所以要承担较高的注意义务。然而,在司法实践层面,法院对“应当知道”的认定依据存在不足;在理论层面,短视频平台也很难“应当知道”哪些内容明显侵权,这是因为一方面信息识别和信息推荐属于不同的算法任务,信息识别具体内容存在技术难度大、成本高和错误率高等挑战;另一方面提高注意义务可能会导致平台审查权力扩大化和私法领域法律秩序的失序。有必要结合算法推荐的运行机制,充分考虑算法推荐场景中短视频平台著作权侵权识别的技术难度和理论困境,加强法律从业者和算法技术人员之间的合作沟通。
【关键词】算法推荐场景 短视频平台 注意义务 著作权侵权
【中图分类号】G210
一、短视频平台算法推荐侵权纠纷和争议焦点
近年来,算法推荐技术在短视频行业的应用越来越普遍,进一步提高了短视频平台用户规模和黏性。一方面,短视频平台通过算法系统,把用户想要的短视频内容推送给他们,达到个性化推荐效果,大大提升了平台内容生产与分发效率(清华大学人工智能研究院,2020:98)。但另一方面,在算法推荐的加持下,平台大量推送用户剪辑、切条、解说、搬运、速看等热门影视作品,导致短视频平台成为著作权侵权的重灾区(玄袂,2022)。由于算法推荐的自动性、不透明性和难问责性,短视频平台算法推荐侵权成为算法治理的焦点。
在算法技术迅猛发展的同时,我国也出现了首例算法推荐场景中短视频平台著作权侵权纠纷,司法实践首次提出并讨论了信息流推荐服务者的注意义务,此案因此被称为“首例算法推荐案”,具体经过如下:2018年,北京爱奇艺科技有限公司(以下称“爱奇艺公司”)起诉北京字节跳动科技有限公司(以下称“字节公司”),原因是字节公司旗下今日头条播放了用户上传的《延禧攻略》短视频,侵害了爱奇艺公司的信息网络传播权。历时近4年,2021年12月,一审法院认定字节公司构成帮助侵权,并判令其赔偿爱奇艺公司200万元。2022年4月,原被告均不服提出了上诉,其最大的争议焦点是,作为互联网服务提供者的短视频平台是否因为使用了算法推荐技术,要对平台用户的侵权行为负有更高的注意义务。
该案引起了社会各界对平台注意义务的激烈争论,一部分学者与一审法院的立场一致,认为短视频平台应对算法推荐服务负有更高的注意义务(张吉豫,2022),理由是经由平台设计和运行的算法对侵权用户的第三方内容的排序、传播方式都会产生重大影响(任安麒,2021;张凌寒,2020)。甚至算法本身按照平台的意志与选择运行(罗斌,宋素红,2019;卢海君,徐朗,由理,2022)。如此一来,算法推荐技术的使用改变了网络服务提供者被动的角色,存在“伪中立性”,所以理应对平台适用更为严格的注意义务标准(彭桂兵,丁奕雯,2022;李自柱,2022)。另一部分学者反对提高算法推荐平台的注意义务,他们质疑了这一案件中法院“利益越大,风险越高,责任越强”的思路,提出不能一刀切,而是要了解该案中算法的具体技术类型、运行机制与侵害结果之间的关联程度,从而确定注意义务标准(刘晓春,2022;熊文聪,2022)。理由是算法推荐技术不会涉及非常具体的作品内容,只是向特定用户提供了满足其需求的内容链接服务,而非内容本身和所有公众(熊琦,2020;刘维,2020)。因此,推送平台也就无从知晓其推送的具体内容是什么,更无法判断这些内容是否侵犯了著作权,不应当承担更高的注意义务(刘文杰,2019)。
当前,有关算法推荐平台的责任界定也是国际上悬而未决的重要议题。2022年10月美国最高法院受理了冈萨雷斯诉谷歌案(Gonzalez v. Google),该案中原告称谷歌旗下的YouTube平台通过算法向用户推荐了恐怖组织(ISIS)创建的恐怖视频,构成帮助和教唆国际恐怖主义犯罪。依据《通信规范法》(Communications Decency Act)第230条对平台的豁免,地区法院和上诉法院都判决谷歌不承担责任。在算法推荐场景中,认定平台承担何种程度的责任,不仅影响着平台责任的认定和权利人的保护,同时也关系到整个平台算法推荐行业和互联网产业的健康发展和技术创新。2022年3月,我国《互联网信息服务算法推荐管理规定》开始实施,凸显了我国在网络治理领域对算法推荐平台的关注。考虑到我国“首例算法推荐案”对司法实践和学术界研究的重要参照价值,本文拟结合此案,重点回答以下问题:在著作权领域,算法推荐技术在侵权作品传播中扮演何种角色?算法推荐场景中,司法实践如何认定短视频平台的注意义务?如果要求短视频平台对第三方侵权行为负有更高的注意义务,则可能会面临哪些挑战?
二、算法推荐的运行机制及其角色
近年来,随着算法技术的发展,算法推荐已经广泛应用于社交媒体平台、新闻客户端及大型电子商务平台等。目前信息网络存储服务商主要采用的是个性化推荐算法系统,其作为信息网络存储服务的辅助工具,是为了向用户精准推荐内容,吸引用户并且满足其需求,更好地提供网络服务。当前网络平台包括今日头条都主要采用协同过滤(Collaborative Filtering)推荐算法(王建芳,2018:1,4),主要是基于用户的协同过滤算法(UserCF)和基于物品的协同过滤算法(ItemCF)。“首例算法推荐案”中今日头条使用的是基于用户的协同过滤算法。该方法的核心思路是考虑用户喜欢内容的协同特征,分析相似用户的偏好,把A用户喜欢的内容推荐给B用户。①具体可分为以下五个步骤:
第一步是消重,以保证推荐的专业性。为避免内容推荐的重复性,头条算法会对所有上传内容进行机器消重,包括对相似内容、相似主题等进行消重,通过发布时间、来源的权威性和引用次数,由机器学习判断原创视频再推荐,鼓励用户上传内容和接收内容的原创性。这一步说明平台对算法推荐内容采取了预防著作权侵权的合理措施。第二步是算法自动审核。审核会对涉黄、涉暴、反动(“黄暴反”)等违法内容进行审核。为保证审核的准确性,算法使用一些关键词对低俗内容、广告、恶意推广等进行拦截。第三步进入冷启动阶段。对新注册用户新上传的点击量为0的视频,由系统根据标题内容、发布者及粉丝情况打标签并随机推荐,启动其他用户点击浏览。第四步是反馈收集阶段。对于进入推荐池的视频,系统根据点击率、点赞数等因素计算推荐。比如新上传的视频需要保证1000次的曝光,如果这1000位用户中喜欢的人较少,没有达到系统判定的阈值,这个视频就不会通过系统推荐;如果这1000位用户中有200个人点赞和阅读这个视频,达到五分之一的点赞率和阅读率,符合系统设定的阈值,就可以进入推荐池。最后一步是人工审核阶段。进入推荐池的视频内容,当出现特定情形时,例如热门和评论异常的内容,将会进入人工复审范围。由于机器审核并非百分之百的准确,有一定的错误率,所以人工复审围绕这些特定情形的视频,重点看这些视频是否涉及“黄暴反”等违法违规内容,但不会对视频内容是否侵犯著作权和肖像权等进行人工审核。②
从上述运行机制可见,协同过滤算法推荐在整个消重、算法自动审核、冷启动、反馈收集和人工审核五个阶段中,只会对“黄暴反”等违法内容识别,并不会对推送视频进行著作权侵权内容识别。这一运行机制也说明了算法推荐在信息传播中扮演着加速器的角色。在大数据时代,社交平台上的海量信息增加了用户选择和阅读信息的困难,因此,为了节约用户时间和提高用户黏性,平台通过算法对用户点击量、点击率、转发数和评论数等信息分析整合,根据用户浏览习惯、搜索记录等对用户进行精准画像,向其推荐感兴趣的内容。换言之,如果平台没有使用算法推荐服务,用户可能需要花更多时间才能接触到自己感兴趣的内容。而算法推荐作为一种技术服务方式,大大提高了用户获取准确信息的效率。
总之,算法推荐是平台基于算法精准匹配用户各项指标后,将视频链接曝光给目标用户的一种服务方式。其作为一种技术服务手段,是附属信息存储空间服务的一种技术,目的是为了提升平台用户的“消费”体验,精准推送用户所需内容,促使平台有更多盈利。在整个推荐过程中,平台算法只负责将第三方上传的内容精准推荐给平台用户,既没有改变推送的内容,也无法识别具体的推送内容。显而易见,在信息分发上有优势的算法,在信息审查上不一定有优势,他们属于两类完全不同的算法任务。这对平台的注意义务有何影响?具体到“首例算法推荐案”中,一审法院如何认定平台的注意义务,依据何在?这是接下来需要厘清的关键问题。
三、“首例算法推荐案”中短视频平台注意义务的认定问题
平台是否应当知道(以下简称“应知”)用户的侵权行为是司法实践认定平台注意义务的关键。只有在认定“应知”的前提下,平台才有义务采取必要措施。在“首例算法推荐案”中,一审法院适用了最高院《关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称“《若干问题的规定》”)第九条和第十二条认定平台“应知”,其中包括平台管理水平;传播作品类型、知名度;平台是否主动对侵权内容进行了选择、编辑、修改、推荐;平台是否积极采取了预防侵权的合理措施;是否在知道侵权后采取必要措施;以及是否从用户提供的侵权内容中直接获得经济利益等。依据这些规定,无论短视频平台是否使用算法推荐技术,司法实践都应当综合考虑上述因素后才能认定平台构成“应知”。
(一)法院认定平台注意义务的依据不充分
“首例算法推荐案”中,法院在认定平台构成“应知”时综合考虑了以下因素,第一,涉案短视频所处位置明显;第二,平台侵权现象明显;第三,作品具有较高的知名度,影响力大;第四,平台“在应当知晓侵权视频的情况下,所采取的相关措施没有达到‘必要’的程度”。值得注意的是,本案中,法院在认定平台构成“应知”后,才要求平台应当采取必要措施,承担较高的注意义务。所以本文重点从“应知”层面讨论平台的注意义务。然而,算法推荐技术的使用使得司法实践在认定平台注意义务时存在着一些问题。
一方面,法院对涉案短视频所处“位置非常明显”的认定过程不严谨。结合上述影响因素可知,影响平台注意义务的因素之一是涉案短视频所处位置明显,平台识别难度较小。法院表示涉案短视频均集中在字节公司专门设置的“西瓜视频-推荐”、“首页-视频”的明显位置。然而,这个“明显”位置是由平台算法基于用户喜好设置还是由平台人为设置,有待进一步考证。如果是算法推荐,则是算法根据每位用户兴趣推荐个性化页面,没有人为参与,那么平台不存在主观过错;而且算法推荐下每个人首页处在明显位置的内容也会有所差异。如果是平台人为设置,平台的侵权行为显而易见。但遗憾的是,一审法院没有详细说明。此外,法院对位置明显的判断依据主要来自于原告爱奇艺一人使用一台设备取证的1314条侵权短视频,由于算法推荐是根据个人喜好和浏览习惯进行推送,取证人仅观看有关《延禧攻略》短视频,那么算法也只会选取符合取证人喜好的视频推送,这样取证人在其栏目首页14天内看到的都是相关视频,这不能代表其他人也会看到涉案短视频,因而较难证明“位置非常明显”。而且,根据笔者长时间使用和观察今日头条APP发现,今日头条平台有近30个栏目,几乎都包含视频页面,所涉“西瓜视频-推荐”、“首页-视频”只是其中两个栏目,且这两个栏目首页每天有算法动态推荐成百上千的视频,这意味着平台识别难度可能较大。
另一方面,法院对侵权现象严重且明显的判断证据不够充分。侵权现象明显也是影响平台注意义务的重要因素之一,法院认为以平台的技术水平和信息管理能力,不难发现侵权内容,不过根据前述算法推荐运行机制和角色,在整个推荐过程中,无论内容是否热门,算法都只会对暴力、色情或政治敏感类等信息识别并过滤,不会识别著作权侵权内容。③然而,法院认为具有较高技术的平台能够发现并识别一些明显侵权的内容。主要依据是,原告爱奇艺一人使用一台设备都可以在被告平台注意到并取证1314条侵权短视频,且这些视频的播放量高达9400余万次。那么对于技术水平和专业程度都较高的字节公司,更应该容易发现并识别这些侵权明显的视频,否则就构成“应知”。
这里的判断存在着一定的逻辑问题,其一,忽略了取证语境。如前所述,根据算法推送机制,取证人在特定的取证需求下,看到的极有可能都是与《延禧攻略》有关的视频,并不能代表喜好不同的其他人也会接触到这些视频,因而较难证明侵权现象严重。其二,忽略了人工识别与算法识别的差异。由于著作权侵权识别涉及前后语境理解、情节桥段等高阶语义内容,仅仅人为地在系统里观看和针对性地比对一部剧,加上算法推荐的作用,可能容易找出相似之处并识别侵权,但这不能证明平台也有能力通过算法在海量视频里识别出这类侵权视频。其三,随着当前短视频行业的蓬勃发展,任何一个短视频平台都可能有用户上传的著作权侵权视频,如何判断“侵权现象明显”是一个比较主观的标准。在一些司法实践中,只有当涉案视频包含在国家版权局发布的重点作品著作权保护预警名单中,用户上传作品名称包含涉案视频名称,且涉案视频知名度较高时,法院才会将其认定为“侵权现象明显”。④其四,忽略了侵权视频所占比例。在原告取证的信息流推荐结果中,不仅有1314条侵权短视频,还有2004个不侵权视频,包括与《延禧攻略》相关的花絮和宣传片等。如果不考虑侵权比例只考虑侵权视频数量,进而认定侵权现象明显,并不全面。
(二)法院未考虑平台主动参与侵权的程度
除了上述因素,依据《若干问题的规定》第十条和第十二条等相关条款,平台参与推荐、编辑或将热播影视作品放在明显位置,这也是司法实践考虑平台注意义务时需综合考量的重要因素。在“首例算法推荐案”中,法院仅将算法推荐当作平台向用户提供更好服务的辅助工具,具有“实质性非侵权用途”,这意味着平台使用算法推荐技术并不等同于平台主动对侵权内容进行了推荐。在2022年9月发生的爱奇艺公司起诉快手公司案(以下简称“快手案”)中,法院也并未将平台使用算法推荐技术与平台主动推荐混为一谈。该案件诉由是快手公司通过算法推荐了用户上传的侵权视频,侵犯了爱奇艺公司的著作权。一审和二审法院都认定快手公司对用户侵权行为具有主观过错,主要依据是快手公司对该视频话题主动设置了板块,并配有剧照、剧情、简介等。
“首例算法推荐案”和“快手案”非常相似,均涉及短视频平台通过算法推荐了用户上传的侵权短视频,且涉案短视频知名度较高,判决结果都是短视频平台承担侵权责任,但两案的审理过程却迥然不同。前者涉案字节公司没有对侵权视频进行过主动编辑和整理,而后者涉案快手公司有主动编辑行为,所以无论快手公司是否使用算法推荐技术,都不影响其构成“应知”。在“首例算法推荐案”中,暂且不论法院对平台“应知”的认定过程和证据存在不足,就法院的审理逻辑而言,平台并没有直接参与侵权的行为,仅因为平台使用了算法推荐技术,就要求其“与不采用算法推荐、仅提供信息存储空间服务的其他经营者相比,理应对用户的侵权行为负有更高的注意义务”,缺乏说服力。
与此同时,一审法院也明确表示算法推荐技术的使用只是平台的辅助工具,不代表平台主动参与,而法院之所以认定平台构成“应知”,是因为涉案短视频的性质和影响以及平台具有充分的条件和能力发现侵权视频。换言之,依据该案审理逻辑,即便短视频平台没有收到权利人的通知,亦没有主动参与编辑和推荐行为,但使用了算法推荐的短视频平台仍然需要对平台上所处位置明显、大量出现的、点赞量或评论量高等可能侵权的短视频负有较高的注意义务,否则就会被认定为“应知”。然而,正如前文所言,信息推荐和信息审查在算法运行中分属完全两种不同的任务,在信息推荐上有优势的平台,在信息审查中不一定也有优势。那么这可能会带来哪些挑战?
四、算法推荐下短视频平台负有较高注意义务的挑战
如果要求短视频平台负有较高注意义务,则平台应当具备“充分的条件和能力”识别哪些内容明显侵权,这在当前技术环境下能否实现?假设只单独识别《延禧攻略》这部电视剧的侵权视频和正版视频之间相似性,算法可以通过收集内容池所有标签相似的视频,对数据逐个进行标注,明确哪些内容是受保护的,哪些内容是可以合理使用的。无论是通过算法技术还是人工识别,成本都相对较低,实现难度不大。当然,如果平台已经明确知道哪部视频可能侵权,那么就更容易实现。但问题在于,如果没有收到权利人的有效通知,平台如何应当知道哪些内容明显侵权?那么,这就意味着平台需要主动识别部分可能侵权的内容,比如可能要对平台首页、知名度高、关注度高和影响力大等内容进行大规模识别。到了平台系统化操作中,能够进入到算法推荐池并且向公众推荐的这类短视频可能成百上千,所以平台每天需要识别几百部甚至几千部的视频,由此可能会遇到以下两方面的挑战。
(一)技术与成本问题
首先,系统比对侵权内容,运行难度大。在识别时,平台需要拥有相关视频的正版数据库。如果是类似《延禧攻略》这类热门电视剧短视频片段上传,平台若要在系统里对视频的相似度进行识别和比对,就必须购买了这部剧的著作权,或者获得了相关权利人的许可。一方面平台自己购买正版视频成本高,另一方面如果该热门视频的著作权是独占许可类型,则平台无法购买,只能获得这部剧的相关权利人许可,但因为涉及竞争关系或商业秘密,相关权利人一般不会提供给平台。另外,如果是用户自创的短视频成为热门视频,那么平台需要确认这个视频是否为该用户的,还是该用户照搬了其他用户,否则一旦误删,就容易侵犯用户的表达权益。由此可见对于平台而言,通过比对来确认内容是否侵权,仅仅这个环节,难度就很大。
其次,系统标注识别成本高。数据统计,今日头条每天上传的视频、图文等内容近150万条(柏宁,2021)。在这些海量信息中,就算只需对处在明显位置、影响力大和知名度高的视频进行相似识别,可能也有成百上千个。就标注环节,根据技术专家的看法,仅就一部电影作品《这个杀手不太冷》(时长110分钟)的标注,也可能需要30个人团队一个月的工作量。⑤在标注后,团队还要不断地进行分类训练和分类识别,提高准确率。为了便于理解,假设平台因为使用算法推荐服务每天平均获利500万元,如果要求平台履行较高的注意义务,比如每天识别50部可能侵权的视频,将其与正版电影进行比对标注,那么每天大概需要1500人团队一个月工作量,假设其成本平均每天有400万元。尽管理论上平台仍可获利100万元,但因为算法识别侵权内容会影响这些视频的推荐速度和用户体验,也会降低平台收益。而且,加上平台后期反复纠错,提高准确率,其运行成本甚至还会超过平台因算法推荐获取的收益。长此以往,将极大地提高运营成本,降低算法推荐速度,不利于用户体验,进而违背了平台使用算法推荐的初衷。
第三,识别准确度不够,易侵犯用户的合法权益。当前算法自动化对语境的理解还不尽如人意,比如反语、讽刺、与文化相关联的方面以及用户意图、语调、受众、艺术性目的等(Pírková, 2020)。现有算法技术还不足以理解人类语言的所有细微差别(Hao, 2021)。实践证明,平台通过算法识别很容易误删一些合法的视频,如宣传、解说、拍摄花絮、采访视频等非原告著作权内容(熊文聪,2022)。如此一来,平台需要在反复纠错中提高准确率,不仅大大提高了成本,而且如果不小心误删其他合法内容,就会侵犯用户的表达和创作权利,引起其他法律纠纷。
(二)对私法领域法律秩序的挑战
与平台识别著作权侵权难度大、成本高和准确度低相比,平台识别和过滤“黄暴反”等违法内容就容易很多。这是因为,暴力、色情等内容通过关键词识别,以及算法对内容进行机器消重等,均属于浅层语义审核,因而能够大规模地在平台算法系统中使用。平台算法推荐只需要做到浅层语义审核,为活跃的用户推送与其类似用户感兴趣的内容信息即可。但过滤和审核著作权侵权内容属于深度语义审核,需要对内容的上下文意思进行全面判断。以《延禧攻略》为例,如果仅仅对《延禧攻略》这部剧进行推荐,则算法只需要将其标签为“古装剧”或“清宫剧”或其他标签,过滤掉违法和上传的重复内容,再综合用户的喜好和浏览历史数据、行为习惯等,结合这些识别的标签进行推荐。但这些标签只能作为推荐的标准,不能作为过滤的标准。如果要过滤盗版内容,还需要对内容的上下文语境进行全面了解,与平台系统里的《延禧攻略》正版视频标签内容进行相似度计算等,这需要大量的成本和时间。此外,政府或权威部门会将“黄暴反”等违法视频的预警清单或比对数据库提供给平台,而著作权内容比对只能通过平台购买正版视频,或者由相关权利人提供,成本高且难实现。
从法律角度而言,如果要求算法推荐场景中短视频平台对著作权侵权也履行较高的注意义务,则可能会引发私法领域的失序。根据我国立法与司法实践,以及学界形成的共识,在私法领域,平台没有任何事先审查内容的义务。一直以来,在公法领域,针对“黄暴反”等违法内容,平台有事先审查的义务,因为在与公民表达自由的利益权衡中,与“黄暴反”密切相关的公共利益更为紧迫。但著作权涉及的是私法领域,其价值位阶并不高于公民表达自由,所以从价值衡量角度出发,也不应该要求平台对大量视频进行主动审查(姚志伟,2022)。而且当前人工智能的内容审核系统的错误率比人工错误率更高,在涉及“黄暴反”信息时机器审核尚且如此,更何况是著作权领域中涉及人物架构、情节设置等相似度识别,这可能会导致大量合法内容被错误删除,侵犯公民的表达自由(Raso, 2018)。
此外,在算法推荐场景中,如果要求技术能力高的短视频平台对著作权侵权承担较高的注意义务,那么当涉及隐私权或名誉权等其他民事侵权行为时,是否也应当要求平台履行同等程度的注意义务,这可能也会引起私法领域权利保护争议。可见,如果因平台使用算法推荐就认为其技术能力高,并要求其履行更高的注意义务,这在现行平台技术和法律环境实施中可能会带来诸多问题,甚至可能会阻碍算法推荐技术乃至整个行业的发展,导致私法领域的失序。既然如此,那么在具体的司法实践中,法院应当重新思考这一做法。
五、反思与讨论
随着算法技术的发展,算法推荐平台的责任界定成为国际上共同关注的焦点。在2022年10月美国最高法院受理的冈萨雷斯诉谷歌案中,地区法院和上诉法院都判决谷歌不承担责任,理由是谷歌平台使用的算法推荐是用来促进交流和他人内容的工具,无法识别具体内容。无论是恐怖组织创建的内容,还是任何其他用户创建的内容,平台通过算法推荐时并没有区别对待,因此平台有权享受《通信规范法》第230条的豁免。该案由美国最高法院受理,也意味着美国正在重新思考平台“技术中立”是否还适用于新的技术环境。不同于美国,我国互联网服务提供者对于暴力、色情、恐怖等内容传播负有严格责任。如果对著作权侵权也要求使用算法推荐的短视频平台承担较高的注意义务,在司法实践层面和理论上会遇到一些挑战。
结合“首例算法推荐案”,司法实践中法院在认定平台注意义务时需要厘清以下问题。首先,如何在算法推荐场景中认定涉案短视频“明显位置”,尤其是用户数量庞大的短视频平台,任何用户上传的短视频都可能被算法推荐到明显位置,并可能涉嫌侵权。其次,何为“侵权现象明显”,侵权数量和比例如何界定,也需要司法实践进一步明确。此外,在平台没有对侵权内容主动进行编辑和推荐,以及没有从中直接获取经济利益的情形下,法院仅以平台的技术能力和管理水平较高,就认定其“应当有能力知道其用户大量地实施了涉案侵权行为”,要求其承担较高的注意义务,也缺乏足够的说服力。特别是当前短视频行业发展势头迅猛,任何短视频平台都有可能存在侵权的短视频,平台如何“应知”哪些短视频侵权明显?数量多是否表示“侵权明显”?这些都值得进一步深思。在算法推荐场景中,法院在提出平台有更高的注意义务时需更加谨慎,必须充分了解算法运行机制及其对注意义务的影响。
在理论层面,要求与不采用算法推荐的短视频平台相比,使用了算法推荐技术的短视频平台履行更高的注意义务,如通过其整体服务中算法推荐以外的其他环节识别部分侵权内容,平台可能也会遇到多重挑战。从技术上考量,短视频平台在算法推荐场景中没有主动参与编辑和推荐侵权内容,如果要求平台提前对部分可能侵权的短视频进行著作权侵权识别,不仅技术难度大,成本高,而且错误率高,易侵犯用户的合法权益,加重算法推荐平台的负担,影响用户体验。从价值维度考量,算法推荐平台如果对部分著作权侵权内容进行主动审查,履行更高的注意义务,也会违反平台不对私法领域主动审查的规定,在加重平台审查负担的同时,可能引起私法领域其他权利如人格权、专利权等争议。此外,当平台发生与著作权同等价值地位的其他民事权益争议时,平台是否也应当承担一样的注意义务?如果平台“过度”负责,将来也可能扩大到对个人隐私和其他私权利的审查,长此以往,不仅可能导致平台审查权力的扩大化,同时也会提高平台运营成本,阻碍平台技术的创新与发展。
著作权侵权纠纷本质上是利弊平衡和价值取舍,一审法院也考虑到了更高的注意义务势必导致平台运营成本相应增加,从而提出短视频平台通过真实的数据和专业的分析来证明识别侵权的成本。法院这一思路是值得肯定的,说明司法实践也很重视这一问题。尽管如此,笔者仍认为,在司法实践对算法推荐产生的收益与识别侵权成本尚未有充分了解和全面评估之前,不宜对使用算法推荐的短视频平台提出较高的注意义务标准,甚至区分使用和没有使用算法推荐技术的短视频平台。毕竟算法推荐技术在平台的广泛应用是大势所趋,就备受瞩目的“首例算法推荐案”而言,其作为首例案件起到的带头影响,可能会引起将来司法实践在著作权领域甚至其他私法领域对所有算法推荐平台更高的责任要求,由此阻碍算法技术的进步。可能是为了避免上述争论,2023年1月,二审法院积极促成了爱奇艺公司和抖音公司(字节公司于2022年5月更名)达成和解。而双方之所以愿意和解,很大程度上可能是因为诉讼结果的不确定性。这也进一步说明,当前司法实践很难通过法律的方式对算法推荐技术产生的著作权侵权问题予以直接回应。
二审法院这一机智之举虽然巧妙地化解了“首例算法推荐案”的纠纷,但该案争议的焦点问题尚未得到解决。随着算法推荐技术的广泛应用,类似的侵权争议可能还会发生。如何评估短视频平台的算法推荐收益和识别侵权成本,进而认定平台在算法推荐场景中的注意义务,这是非常复杂的问题,我们很难通过具体量化的方式来解决错综复杂的法律问题。将来的司法实践还应当加强法律从业者与算法技术人员之间的合作沟通,在法律从业者的顶层理论设计中考虑到技术运行难度和实际可行性,尽可能将算法的问题交给算法,以技术制衡技术,通过低成本的方式减少纠纷(季卫东,2020;熊文聪,2022)。比如鼓励著作权权利人在视频作品中加入水印和反盗版代码,加大侵权者的侵权难度,减少侵权行为。⑥■
注释:
①参见北京市海淀区人民法院,(2018)京0108民初49421号民事判决书。
②⑤参见2022年4月23日中国社会科学院互联网法治研究中心主办的“算法推荐与著作权侵权平台责任”研讨会,清华大学交叉信息研究院唐中平教授发言,原文链接https://mp.weixin.qq.com/s/Ixx05ImP8-PDm54bJ18nTg。
③2022年8月25日,对抖音公司(5月之前名为“字节跳动公司”)一位算法推荐工程师的访谈。
④参见北京知识产权法院,(2022)京73民终929号民事判决书。
⑥2022年8月24日,对天津大学新媒体与传播学院计算机学科人工智能方向王岚君研究员的访谈。
参考文献:
北大法宝(2022)。全国首例算法推荐案——爱奇艺诉今日头条侵权案宣判。检索于https://view.inews.qq.com/a/20220126A000RH00?startextras=0_9ce699650f760&from=ampzkqw。
柏宁(2021)。当互联网更有力拥抱年轻人,想拥抱什么?检索于https://page.om.qq.com/page/OEShxpy9OcUglxQNyVYAQCIA0.[EB/CD]2021-12-21/2022-5-10。
高艳东(2020)。“算法推荐”不能免除服务平台之注意义务。检索于知产力公众号,2020年5月19日。
高阳团(2019)。《推荐系统开发实战》。北京:电子工业出版社。
季卫东(2020)。数据、隐私以及人工智能时代的宪法创新。《南大法学》,(1),1-12。
刘文杰(2019)。算法推荐新闻的法律透视。《新闻记者》,(2),22-29。
刘维(2020)。算法推送者过错认定中的应知状态。检索于知识产权家公众号,2020年12月9日。
刘晓春(2022)。算法必然加重平台注意义务吗?——从“延禧攻略”案看算法类型化与著作权侵权平台责任。检索于社科大互联网法学公众,2022年5月22日。
李自柱(2022)。算法推荐下网络服务提供者侵犯著作权责任的判断。检索于知产财经公众号,2022年4月15日
罗斌,宋素红(2019)。算法新闻传播主体的法律性质:ICP还是ISP。《新闻记者》,(6),77-86。
卢海君,徐朗,由理(2022)。互联网平台算法推荐的法律规制。《中国出版》,(13),22-28。
彭桂兵,丁奕雯(2022)。智能传播中短视频平台版权争议及其治理路径。《新闻记者》,(9),86-96。
清华大学人工智能研究院(2020)。人工智能发展报告。检索于https://new.qq.com/omn/20210203/20210203A08JP700.html,2021-02-03/2022-04-03。
任安麒(2021)。网络服务平台算法推荐的著作权侵权认定规则。《北京航空航天大学学报(社会科学版)》,(10),101-108
搜狐网(2018)。法院强制执行:于正抄袭琼瑶案。检索于https://www.sohu.com/a/230083540_152615。
姚欢庆(2020)。“通知—删除”规则的新挑战——算法推荐下的平台责任。检索于知产力公众号,2020年7月29日。
姚志伟,吴嘉莉(2020)。“算法不是人脑”:算法推荐与电商平台的注意义务。检索于电子商务法实务圈公众号,2020年4月30日。
姚志伟(2022)。网络平台有义务审查过滤版权吗?检索于互联网法律评论公众号,2022年9月7日。
王建芳(2018)。《机器学习算法实践:推荐系统的协同过滤理论及其应用》。北京:清华大学出版社。
熊琦(2020)。“算法推送”与网络服务提供者共同侵权认定规则。《中国应用法学》,(4),125-136。
熊文聪(2022)。算法推荐提升了平台的注意能力吗?检索于广州市黄埔区版权协会公众号,2022年6月14日。
玄袂(2022)。“切条”短视频侵权泛滥,提高赔偿成行业共识。检索于https://www.163.com/dy/article/HM5CVTHR051187VR.html。
张凌寒(2020)。平台是否要为算法结果负责?检索于知产力公众号,2020年12月29日。
张吉豫(2022)。平台应对算法推荐服务负更高注意义务。检索于http://www.china.com.cn/opinion/think/2022-02/09/content_78037005.htm。
赵卫东,董亮(编著)。《机器学习》。北京:人民邮电出版社。
Hao, K. (2021). AI still sucks at moderating hate speech. Retrieved from https://www.technologyreview.com/2021/06/04/1025742/ai-hate-speech-moderation/.
Husovec, M. (2018). The Promises of Algorithmic Copyright Enforcement: Takedown or Staydown: Which Is Superior: And Why. Colum. JL & Arts, 4253.
Pírková. E. (2020). Automation and Illegal Content: Can We Rely on Machines Making Decisions for Us? Retrieved from https://www.accessnow.org/automation-and-illegal-content-can-we-rely-on-machines-making-decisions-for-us/.
RasoF. A.HilligossH.KrishnamurthyV.Bavitz, C.& KimL. (2018). Artificial intelligence & human rights: Opportunities & risks. Berkman Klein Center Research Publication6.
WangJ. (2018). Regulating Hosting ISPs' Responsibilities for Copyright Infringement. Singapore:Springer.
周书环系天津大学新媒体与传播学院副教授。