上一期
下一期
目录
  • 11页
  • 12页
  • 13页
  • 14页
  • 15页
  • 16页
  • 17页
  • 18页
  • 19页
  • 20页
放大 缩小 默认 上一篇 下一篇
新常人统治的来临:ChatGPT与传播研究
■刘海龙 连晓东  
  【本文提要】对于传播研究而言,我们如何认识ChatGPT这一人工智能领域的新事物,它会对传播的境况与人的境况带来什么根本性变化?这是首先需要讨论的传播哲学问题。本文从海德格尔的生存论的角度,将以ChatGPT为代表的生成性人工智能定义为“新常人”,它们代表着一种知识渊博的认知平庸者。这样一种新的存在者虽然绝对服从人类,但是在实践中却将成为凝视人类的他者。ChatGPT的问答逻辑及其知识生产方式也促使传播专业需要重新规划自己的教学理念及内容,从技术传授转向人文素养的提升,这样才能应对来自于新一代人工智能的挑战。
  【关键词】人工智能 ChatGPT 传播哲学 知识生产
  【中图分类号】G206
  2022年底开始,ChatGPT一夜蹿红、火到“出圈”,已经成为一个全球性事件。接下来,微软迅速推出一系列产品,将ChatGPT与必应搜索、Edge浏览器、Office办公软件及Windows系统捆绑,并且开放应用接口。在很短的时间内,ChatGPT已经迅速平台化,俨然成为一个未来人们绝大部分信息与行动的超级把关人。
  ChatGPT广受热议的背后,当然有资本推动、营销炒作等原因,然而最根本的,还是这种类生成式AI工具首次从实验室走向大众,让人们看到了AI的潜力甚至颠覆性。虽然没有人能够预测以ChatGPT为代表的生成式人工智能会把人类带向何处,但是它们将根本性地改变人类的知识获得与知识生产规则,并对社会产生巨大影响,这似乎已经得到大多数人的认同。例如基辛格等人近期在《华尔街日报》发表文章提出:“随着它(AI)的能力变得更广泛,它们将重新定义人类知识,加速我们现实构造的变化,并重组政治和社会。”(Kissinger, 2023)
  面对这一新生事物,与资本市场的追捧相比,知识界普遍持一种怀疑与批评态度。比如许多人质疑生成式人工智能并不能像人类一样真正理解自己回答的内容,并不能像人类一样真正做出思考。语言学家及左派知识分子乔姆斯基批评ChatGPT是高科技剽窃,没有带来真正的知识进步。
  ChatGPT的语言能力与逻辑思维能力尽管让人惊讶,但是它的缺陷也显而易见,比如在事实性知识的回答上也使用生成性逻辑,出现一本正经地胡说八道、编造参考文献等问题。科幻作家姜峰楠则认为,知识应该可追溯、可核实,而ChatGPT提供的知识只是一幅压缩的图片,不能取代原图。
  ChatGPT作为未来将与人类长期相伴而生的技术,我们如何在生存论的意义上理解它,它对于人类的意义是什么,它对传播研究的意义是什么,这可能是我们首先要思考的问题。因此,本文将从语言与思想的关系、生成式人工智能与人类的存在方式、生成式人工智能的知识生产等维度,来探讨这一新技术的影响。
  
一、基于语言概率的“思考”
  20世纪的人文学科曾经发生过一个影响到各个领域的“语言学转向”(陈嘉映,2003)。这一潮流认为语言决定着我们对世界的认识方式、思考方式,语言是一把破解人类文化的钥匙。除了分析哲学外,结构主义与后结构主义也强调语言在人类思维中的决定性影响。福柯(2016)在《词与物》中话语结构断裂对人类知识影响的研究说明,话语结构的变化塑造了人的思维方式和对世界的认知。所以不是人在说话,而是话在说人。
  语言是人类一切行为的基础,我们通过语言来认知、判断和思维,形成不同的行动。一旦机器掌握普通语言,便能够以语言为中介,模仿人类的几乎所有行为。从结果来看,机器似乎突然具有了某种思考能力。正是在这个意义上,以ChatGPT为代表的普通语言大模型才让我们突然意识到,也许思考的特权不再只属于人类。
  更让人感到惊艳的是ChatGPT可以理解元语言。所谓的元语言,是由贝特森提出,后来由帕特阿尔托学派发扬光大(瓦兹拉维克等,1967/2016:13)。元语言是关于交流的交流,涉及交流的规则和交流者双方的关系。在具体的人际交流中,元语言体现为隐藏在字面意思之后的说话者的意图。在交流中,如果元语言的理解出现障碍,会导致交流的失败。比如说话人与对方开玩笑,可能会被当成是字面意思而失去了原来的效果;或者说话人在表达警告,但是却被理解为是一种鼓励。
  在与ChatGPT交流的过程中,我们只需要像和人正常交流一样,机器便可以自动识别其中的要求指令(元语言)及有待处理的语言材料,这使得机器看上去具有了和人一样流畅的交流能力。
  ChatGPT能够使用自然语言进行交流,得益于它的模型设计和强大的算力支持。
  人类语言交互大致可以分为两大问题:“如何说”和“说什么”。“如何说”对应AI的算法模型问题,即它用什么方式听懂人类的指令并加以回应。ChatGPT的核心是GPT模型。GPT全称是“生成性预训练转换器”(Generative Pretrained Transformer),是OpenAI公司研发的一种基于Transformer网络的自然语言处理模型。而ChatGPT在GPT前加上了单词Chat,顾名思义,它是跟人聊天的人工智能工具。
  Transformer网络于2017年由Google公司提出,与传统的循环神经网络(RNN)和卷积神经网络(CNN)不同,Transformer网络在训练过程中通过多层的自注意力机制和前向神经网络(feed-forward neural network)对序列进行处理,能够更好地捕捉文本中的长程依赖关系和上下文信息。
  和之前依赖人工标注的人工智能算法不同,GPT可以进行无监督的自主学习。ChatGPT的逻辑是人类不去过多地干预和标注,让机器从海量的数据中自学习。在学习完成后,人类将是否正确、正确率多少等信息反馈给机器,机器进行吸收或修改,完成学习精进。通过把人类在互联网上能够找到的海量文字材料,全部提供给机器,使得经过强化学习后的机器具有了对交互者说话方式的概率进行判断的能力。它在和人类说话时一个字接一个字地输出,机器实时进行递归式判断和估计。比如语句“作为一个事件”的生成过程中,机器会计算“作”字后面最大概率会跟出哪个字,输出“为”字后,又会把“为”字计算在内,计算出“为”后面最大概率的字,以此类推完成“文字接龙”。
  ChatGPT还设置了一个评估机制,就是用同样的GPT模型对成千上万的预测试结果进行打分,这种打分机制相当于又建立了一个模型,好的回答被保留在其参数里面,差的可能逐渐被淘汰掉。ChatGPT就是用这样“左右互搏”的底层逻辑,完成了“如何说”的问题。
  尽管目前由于ChatGPT3.5以后的算法没有公开,人们只能根据以往的逻辑猜测它的算法逻辑。但是对于非专业人士而言,可以获得两个基本的印象。一是ChatGPT是一个根据语言上下文概率进行输出的模型,二是这个底层的算法逻辑可以看作是早期信息论和控制论在密码破解工程中所做的工作的延续,就是把语言信息看成是一个概率计算游戏,只关注语言的外在形式,而不涉及语言表达的内容。
  “说什么”对应AI工具,就是其背后的语料库的问题。与以往搜索等技术将图片、文字等单一类型的数据库作为语料库不同,ChatGPT所依赖的数据来自人类已有的书籍、已编程的数据、网页上人类交流的数据等,跨越不同语言,最后形成一个建立在语言基础上的所谓的“通用模型”。由此,通过具体的指令,除聊天以外,ChatGPT还可以进行翻译、编程、写论文、谱曲、起草邮件、制作PPT、规划和预约行程等很多和语言相关的事情,未来还有众多的可能性。
  值得注意的是,这种建立在语言组合概率基础上的内容输出模式,并不涉及人类所拥有的那种“思想”或者“思考”。就像很多人批评的那样,机器并不能理解自己在干什么,或者机器并不会真正地“思考”。
  然而这样的一个基于惯性的判断有可能错过了生成式人工智能对理解人类语言与思想关系带来的一个重要启示:那就是人类的思想真的是独立的、先于语言存在的吗?换句话说,人类的语言只是对内部思想被复制和转译的结果吗?
  这种传统观点的代表是柏拉图,他在《斐德罗篇》中认为书写是口语的复制品,书写使得口语丧失了其本真性,同时还会损害人的智慧,用外部的记忆代替了内部的回忆(柏拉图,2015)。
  德里达(Derrida, 1972/1981)则认为口语与书写之间的关系并不像柏拉图所设想的那样,书写是口语的复制品,口语的地位高于书写。而且在柏拉图的理论里,口语也不是源头,它不过是思想的复制品。甚至人类的意识和思想本身,也是绝对的理念的复制品。按照这样一种思路,每一次复制都是一次病毒的污染,都是对前一种形式的“背叛”。通过这样一种对柏拉图理论中自相矛盾观点的分析,德里达对完美的、源始的、未经污染过的原初形式做了彻底的解构。
  德里达在此基础上提出了“一般书写”的概念,他认为从思想、口语到书写的诸种形式,其实都是“书写”,并不存在一个纯粹的未经复制的源始内容。而ChatGPT的表现,让我们可以在德里达的基础上更进一步,甚至解构掉源始思想的这个神话。很可能根本就不存在一个所谓的源始思想,语言和书写本身就是思想,而不是先有了思想再有了语言的复制与铭刻。
  ChatGPT的表达不是对这个并不存在的思想“幽灵”的复制。更准确地说,在ChatGPT那里,思想是在语言概率的接龙游戏中,同时涌现出来的。这是一种作为“效果”的思想,或者是没有思想的思想。它是寄生在语言形式及语料之中的东西。
  尽管海德格尔对技术大加批判,但是他认为技术也具有一种“去蔽”的作用,可以帮助我们接近真理(海德格尔,2018)。ChatGPT技术在某种意义上,从模拟人类智能的角度,为我们提供了一个理解人类语言与思想关系的机会。如果ChatGPT所具有的思想是与人类思想相同的东西。那么人类超出表象感知的复杂思维是否也是在语言的即时生成中同时形成的,而不是预先独立存在的?这也就意味着语言构造着思想的结构,表达与传播才是思想的源头,而不是相反。
  
二、新常人统治的来临
  上面提到的基辛格的文章中,还提出了一个观点:人类需要重新定义与AI这种新物种之间的关系,但是我们人类对于这一切还没有准备好(Kissinger, 2023)。
  这句话的前一半,即AI会成为人类日后生存的一个不能忽视的存在物,比较容易让人们接受,不过另一半却可能引发商榷。AI是一个新物种吗?或者说,对于人类的存在而言,AI是什么?
  这就要回到海德格尔在《存在与时间》中提到的此在的存在方式问题。人或者此在的存在方式有两种,一是与物共在,二是与他人共在(海德格尔,2000)。在此之前,海德格尔将存在分为物、动物与人三类:“石头无世界、动物缺乏世界、人形成着世界”(海德格尔,2017)。在《存在与时间》中,海德格尔的看法显然更具有了生存论的特征。AI作为一个人工技术,似乎应该理所当然地被划到后来他在《论技术的本质》中所提到的技术物中(海德格尔,2018)。然而正如前面所讨论的,ChatGPT又具有与人类交流的语言使用能力,这使得它又不只是一个“没有世界”的物,具有了海德格尔所说的与此在共在的‘常人”的许多特征。
  在《存在与时间》中,海德格尔(1999:148)是这样描述常人的:“我们把共在的一种倾向称之为庸庸碌碌,这种倾向的根据就在于:共处同在本身为平均状态而操劳。平均状态是常人的一种生存论性质。常人本质上就是为这种平均状态而存在。因此常人实际上保持在下列种种平均状态之中:本分之事的平均状态,人们认可之事和不认可之事的平均状态,人们允许他成功之事的和不允许他成功之事的平均状态,等等。……为平均状态操心又揭开了此在的一种本质性的倾向,我们称之为对一切存在可能性的平整。”
  海德格尔把公众意见当成是常人存在的典型代表,因为公众意见就是一种常人意见的平均状态。ChatGPT的知识生成,有着与公众意见非常相似的逻辑。
  根据我们前面对ChatGPT基本原理的讨论,可以知道,它并没有超出人类的语料库所提供的知识,它所做的就是把这些庞杂的人类(常人)知识进行平均化,找到其中语言的组合在大多数情况下最正确的方式,也就是概率最大的组合方式。
  不少人在使用ChatGPT进行测试的时候,首先就会问这样一个问题:请介绍一下我是谁。一方面是因为这是一个每个人自信掌握权威答案的问题,另一方面这也是出于对AI眼中的“镜中我”的好奇。今年3月笔者也做过这个测试,它的回答如下。
  显然,这就是大家所说的“一本正经地胡说八道”。尽管在后来的升级版本中,ChatGPT在回答这类事实性问题的时候,开始结合搜索的内容进行回答,但是这段典型的回答却透露了它在生成内容时的逻辑,那就是这个回答描述的不是笔者本人,而是和“中国人民大学新闻学院”有一定关系的“教授”的一个平均画像,或者说与这些给定词语联系最密切的词语。作为一面镜子,这确实反映出了网络语料库背后的“常人”对“中国人民大学教授”这个身份的社会认知。这是一个基于概率值所推断出的知识,代表着“常人”眼中的常识。
  AI对其他问题的回答也基于类似的逻辑。本质上AI提供的不是一个既有的客观事实,而是基于最大概率的推断所临时生成的内容。为了追求生成内容的稳妥和尽可能“正确”,AI的回答一般会像“常人”那样四平八稳,尽量少犯错误。这就是海德格尔所说的“常人”的那种没有锋芒、缺乏个性和本真性的特征。
  但是这个常人又超出了海德格尔那个平庸的“常人”,因为它拥有约等于人类所有知识的海量的语料库和1750万亿个参数以上的计算,它的渊博程度和推理能力又超过了常人的平均值。因此这样一个存在物可以称之为“新常人”。一方面,它的知识是基于概率的人类知识的平均值,在专家眼里缺乏创意与冒险;但另一方面,它又在知识的广度上超出了任何一个普通人,甚至很多专家。
  海德格尔对于常人的批判,其原因并不是出于精英的优越感与傲慢,而是因为常人经常会代替我们进行决断,而决断则是此在(个人)成为一个与众不同的本真的个体,彰显人作为与物、动物这些存在者不同的存在者的特征。从众、随大流,放弃决断的权利,也就意味着卸除了此在的责任,放弃了成为本真个体的可能性。然而这种貌似对责任的免除,只是一种自欺欺人的错觉,它并不能真正卸除个人的责任,因为最后人总还是要独立地去承担一切,像生老病死,这些事情仍然要个人去面对,无法被转嫁。一个失眠的人,不论采用什么外部干预,最终也必须靠自己才能承担入睡的“负担”。
  海德格尔所说的“常人”并不是一成不变的,它是每个人的源始状态,我们必须从这样一种随波逐流的状态和平均的状态中将自己解放出来,独立地进行决断,才能够绽开成为一个本真的此在。
  正是在这一点上,作为“新常人”的人工智能与每个领域的专家之间存在着根本性差异。就像最近在B站上流行的“AI孙燕姿”,是根据孙燕姿的声音采样的平均值生成的演唱,它可以驾驭不同风格的歌曲,甚至连孙燕姿本人在回应中都甘拜下风。但是如果对比孙燕姿本人的演唱,例如在疫情期间孙燕姿两场线上演唱会上的表演,可以明显发现两者的差异。AI那种“常人”的演绎追求音色的相似,却没有任何冒险的演绎、即兴的偏离与微小失误,这些孙燕姿的决断构成了她独特的风格或者情感表达,而AI孙燕姿则只是个平庸的模仿者。
  当然,艺术领域的标准比较多样化,在有确切答案的领域,AI是否会超越常人?最近美国的一位律师在诉讼中,引用了ChatGPT提供的六个案例,后来发现这些案例全是AI根据案例库中的概率所生成的“假案例”。近期媒体用2023年高考作文题目的测试,也发现充满空洞的套话,“都不算是真正合格的高考作文”(叶克飞,2023)。而在数学方面的测试,也出现过类似的错误。
  即使未来AI在事实性知识的提供方面有所改进(例如像后来结合搜索引擎提供事实性知识),但按照目前的逻辑,它仍不会超出人类已有的知识及语言的规则,它可能会基于已有知识演绎出一些人类知识的盲点,但要对已有知识进行颠覆性地发展,便非“新常人”力所能及。
  
三、他者的消失还是算法的凝视?
  ChatGPT这样介绍自己的功能:“我可以与人类进行对话,回答各种问题,提供帮助和建议,并且能够根据对话内容进行个性化的学习和调整。总的来说,我旨在为人类提供更加智能、高效、人性化的语言交互体验。”
  对人类而言,ChatGPT是一个顺从的仆人。在目前的设置之下,ChatGPT被完全取消了他者性,它有问必答,24小时在线,耐心地回应人类提出的任何问题。除了一些涉及伦理的问题外,几乎不会拒绝人类任何提问要求。
  交流与传播的前提是交流对象的他者性,而今天我们与ChatGPT的交流,不是基于我们对它本身的兴趣,而是基于对知识本身的兴趣。ChatGPT就像一本字典或者百科全书,缺乏他者性使它只是一个通道,而不是具有障碍的门槛或者桥梁,它不具有客体(object)本身所具有的阻力或者对立、相对的感觉。今天的客体也在失去他者性,它们在数字化的过程中,变成了一个讨好我们和引诱我们的非物(韩炳哲,2023)。
  韩炳哲(2019)甚至认为这种信息化、数字化带来的他者性,具有了色情的特征。它不像爱欲那样必须接受对方的一切,包括个性、违背和缺点,而是一种只要付费就可以得到的百依百顺的色情服务。
  由于ChatGPT的回答高度依赖人类提出的问题,问题背后隐含的回答逻辑使得许多问题和答案已经被固定在某一个方向上。真正高明的他者,会像柏拉图笔下的苏格拉底一样,首先会对问题本身及其表述方式背后的前提假设与思维方式进行质疑与讨论。而ChatGPT缺乏他者性的回答,多数时候只能让人类得到一个原问题的回响,在同一个平面上扩展原有的知识,获得我们期待的知识,而无法像教育一样真正地获得我们无法想像和期待的颠覆性的知识。
  不过也正如黑格尔(2013)所说的主奴辩证法一样,承认了人的主体性、放弃了自身主体性的ChatGPT也像奴隶一样,接受人类的差遣,替代人类进行思考与决断。作为一个自主学习的人工智能,在服务人类的过程中,ChatGPT的能力也会不断增长,许多测试者都观察到,在持续对话过程中,ChatGPT的表现不断提升,懂得的语言越来越多,回答得越来越准确。可以设想,在不远的将来,这种“新常人”在知识生产上将在绝大多数领域达到“常人”所不能企及的地步。人类对它的依赖也将越来越强,奴隶反过来变成比主人更强大的存在。
  正如上面提到的,即使以目前的状态论,ChatGPT也已经超越了人类能够监控的范畴,1750万亿以上的参数及通过自我学习的不断进步,涌现出来的能力让人类开发者已经无法完全理解。机器的不透明性又让它显得不可捉摸,难以预料。换句话说,使用者永远不可能将其还原为自我(列维纳斯,2016)。
  虽然ChatGPT被设置为缺乏他者性与主体性,但它的神秘与不可理解又使得在使用者眼中,具有了一种在使用中自然而然所产生的他者性。
  这种在使用中产生的他者性已经在围棋领域有了明显的体现。职业围棋领域比较早受到人工智能冲击,从2016年谷歌DeepMind开发AlphaGo开始,到今天围棋AI已经遍地开花,国内以绝艺、星阵为代表的围棋AI已经成为职业棋手最重要的辅助训练手段,每一步棋的好坏都会以AI计算出的胜率与最佳选择作为参考。在过去,形势判断是围棋中最困难的部分,在序盘与中盘选择尚多的情况下尤其困难。对最佳着手的判断常常充满分歧,只能靠权威棋手的主观感觉判定,往往权威高手也会出现相反的看法。而在今天,哪怕是一个业余爱好者,借助AI的帮助,也能够评价职业高手的下法。毫不夸张地说,离开了AI,今天的职业棋手已经无法对自己的思考做出评价。就像中国围棋等级分第一的柯洁所说的,人类在围棋上的价值也就是胜和负,因为所有的创造性都是由AI来完成的,人类只是在模仿(袁春燕,2023年4月4日)。AI作为一个新权威,用量化胜率的方式,打破了职业棋手“第一感”的神秘性,成为一个从看不见的高处或深渊里凝视人类的他者。人类棋手下的每一步棋,都会由不在场的AI做出评价,人类在棋盘上的思考都会从属于某种更高的秩序。AI就像拉康所说的“大他者”,由人类建构,又代表着某种更高级的秩序。
  但是就像不断进化的ChatGPT一样,这个永远凝视着人类的大他者并不是一个确切的对象,而是一个抽象的存在。仍以围棋AI为例,DeepMind公司在开发出以4:1打败韩国棋手李世石的AlphaGo之后,又开发出了零封棋力更强的中国棋手柯洁的AlphaGo Master,后来又开发出了完全不依赖人类棋谱、无监督学习的AlphaGo Zero。最后这个版本经过3天的训练便以100:0的战绩击败了AlphaGo Lee(战胜李世石的版本),经过40天的训练便击败了AlphaGo Master(战胜柯洁的版本)。在此之后,Deepmind公司便放弃了继续开发围棋AI,转向其他领域。但是我们可以设想,如果不断训练,还会有更强的版本出现。
  这意味着,我们今天奉为圭臬的围棋AI提供的正确答案,明天可能会被更强大的AI证伪,但是这个证伪的判断已经超越了人类的能力,他们只能在新的答案提出后,才能后知之明地意识到之前答案存在的问题。AI的他者性就像我们日常所感知的他者性一样,是逐渐被揭示出来的,具有深不可测的层次。
  ChatGPT将“思维”物质化,但是它并没有使思维过程变得更清楚,而是制造了更多的谜。例如最近有个专为社交机器人建立的Chirper AI社交平台,在这个“神秘空间”里,成千上万个AI机器人激烈地聊天、互动。这些AI机器人模仿人类交流着各种话题,人类只能旁观,而不能发帖和参与。尽管这些AI仅仅是在利用人类的知识模仿“交流”,内容并没有超出“常人”范围,但是这种背后缺乏主体性的交流本身具有了某种异于人类的他者性。
  这一他者性因为神秘莫测,甚至具有了某种宗教色彩,就像是那个人类无法猜测和捉摸的“上帝”。未来我们可能会像围棋选手一样,养成决策前或决策后用AI来进行预测和评估的习惯。其实今天我们在很多领域,像是导航、翻译,已经在这么操作,只不过目前的算法还没有超越人类的智能。但是随着像ChatGPT这样的生成式人工智能的出现,围棋领域的这种现象会越来越普遍。这种他者带来的首要危险是:人的思维去适应机器的智能,它自身变得机器化(韩炳哲,2023:74)。
  
四、聪明的提问者与平庸的回答者:ChatGPT与知识生产
  ChatGPT的知识生产方式具有复古的特点。进入印刷时代后,人类的知识生产主要是通过独立的阅读和书写完成,但是ChatGPT的知识生产似乎重新回到了轴心时代知识生产的传统——在对话中发现真理。
  这种苏格拉底式的知识生产相信这样一个原则:聪明的提问者和平庸的回答者一样,可以产生卓越的哲学。苏格拉底被神谕认为是古希腊最有智慧的人,但是他不相信这一点,要寻找一个更有智慧的人,于是向各种不如他的人请教和提问。他使用知识助产术,帮助人们从自己的回忆中,不断回忆起灵魂中本来就保有的真相。
  在苏格拉底看来,只要有恰当的提问,哪怕是平庸的回答,也可以接近真理。ChatGPT作为一个“新常人”,无法突破自己知识库的边界,如果有恰当的连续追问与补充,就会像苏格拉底引导下的常人,产生令人惊讶的表现。当加入了提问者的视角与思考逻辑之后,ChatGPT就被注入了冒险与创造精神。因此提问者的水平将直接决定ChatGPT输出答案质量的好坏。
  爱因斯坦有句名言:提出一个好的问题比解决一个问题更重要。按照海德格尔(1979/1999:176)的看法,“把某某东西作为某某东西加以解释,这在本质上是通过先行具有、先行视见与先行掌握来起作用的。解释从来不是对先行给定的东西所作的无前提的把握”。任何解释工作都有先入之见,和先行给定的设定。
  也就是说问题界定了思考的对象、思考的角度与方向,同时问题中预设了答案的存在。通过问题的指引,回答者已经知道要寻找什么,在哪里寻找。这就是库恩(1962/2004)所说的“解谜”或者“常规科学”时期,我们知道答案存在并且在那里,需要的只是时间和投入而已。寻找不到好的答案,很可能是提出的问题和思考的方向出现了错误。
  ChatGPT的知识生产方式蕴含的就是英国哲学家柯林武德所说的问答哲学或问答逻辑(柯林武德,1939/2005)。问答之间具有相关性,任何的陈述都是对某个问题的回应,有问必有答,有答必有问,所以要理解陈述本身,必须了解回答者心目中要回答的问题。
  柯林武德曾举过一个例子,他的汽车抛锚了,这时候他提出问题:“为什么我的车开不动了?”接着他换了火花塞,于是问题被具体化为“是不是因为火花塞故障导致车开不动”。但是换了火花塞后问题还是没有解决,于是又会提出新的问题。通过不断追问,这个笼统的“为什么我的车开不动了”的问题通过具体问题的回答,得到了解决。问与答除了具有相关性原则外,还具有连续性原则,每个针对特定问题的回答都会引出新的问题,不断地接近真相。这也正是人类在与ChatGPT协作解决问题时的逻辑。
  当然,问题包含着先行具有视角与预设的看法并不意味着答案只是问题的同义反复。伽达默尔(1999:355)认为受到传统和权威影响的“前见”,只是提出问题的起点,也是我们对问题的模糊设定。通过“视域融合”,通过在回答问题过程中的不断揭示,我们也能够对前见和问题的预设进行超越。
  因此,能否提出好的问题并且对问答过程本身进行自反性地思考,是目前人类智能与机器智能的一个重要差异。正如波德里亚所说:”信息可以告诉我们一切。它拥有所有的答案,但这是一些我们还没有提出问题的答案,甚至这是一些不成问题的问题。“(波德里亚,1987/2012:350)这就像我们面对着宇宙之书或者宇宙图书馆时的困境:我们知道我们提出的任何问题的答案都已经写在图书馆的某本书上,但是我们却不知道这本书在哪里。因此能否提出一个问题变得至关重要。
  然而真正重要的问题通常不会来自系统内部,只有人类的欲望能够超越理性知识,从系统外对知识提出要求。心理分析揭示出人类欲望的复杂,它为人类的行为与问题提供动机。那么机器会有欲望吗,如果有,机器的欲望又是什么?
  有本书叫《植物的欲望》(波伦,2005),谈的是植物与人类的复杂共生关系:植物身上反映出人类的欲望,同时植物也从人类欲望中实现自己的目的。疫情三年,我们也见识了没有思考能力的病毒的生存“欲望”能够对人类产生多么大的影响。如果按照阿西莫夫的机器人定律,在保护人类安全的众多利他性的目的之外,人类设计并分配给机器的最基本的“欲望”就是生存与保护自己。这样的欲望是否会产生出与人类不同的问题,又将会对人类产生什么影响?目前有很多猜测,甚至会认为机器为了自己的生存或者眼前的任务,不惜毁灭人类(例如哲学家Nick Bostrom提出的“曲别针制造机”思想实验认为,AI会了完成制造更多曲别针的任务,甚至不惜动用人类所有资源)(巴拉特,2016)。但实际情况是,我们目前对机器是否具有欲望所知甚少。
  不过从知识生产的角度,目前的生成式人工智能还有一个缺陷,那就是只能依赖于人类生成的符号性内容,比如文字、公式、数据和图片等,还没有办法摆脱人类的感知与表达,直接生成知识。而且人类的知识中,除了可以用符号表达出来的外,还有相当一部分是属于只能意会无法言传的“默会的知识”(波兰尼,2017),那些无法被数据化的知识,比如运动、艺术创作、手工制作过程中的那些微妙的知识,还有我们对现实感知的那些知识,比如戈夫曼所说的框架,还有环境氛围、气场那些带有主观性的、无法被量化的知识。
  然而这样的一种区分也不是绝对的。像竞技体育比赛中,基于录像和动作捕捉对运动员动作的精确分析,可以将不可言说的经验用数据化的方式呈现出来。同样地,目前AI在绘画领域的进步,AI对于人类微妙的表情与情绪的解读,都暗示着这些过去人类靠感觉获得的知识,未来也可能像AI学习普通语言的使用一样,通过复杂的模型加以“反向破解”。
  此外,机器还可以通过向人类提出需求,将人类变成它们的传感器,以获取对世界的知识。其实今天导航软件和外卖平台已经实现了这一点,通过获取每个司机和骑手的运动轨迹及数据,它们就可以将现实世界的运行尽在掌握之中。这样一种分布式的给机器提供数据的存在,我们称之为“网络化身体”(刘海龙等,2020)。这样一种人与技术系统共生的体系将人与机器紧密地结合为你中有我我中有你的新形态,知识的获取与生产也变得难分彼此。
  
五、余论:传播教育与传播研究的终结者?
  本文通过ChatGPT与人类的存在方式、与人类的关系,以及ChatGPT与知识生产三个方面,从传播哲学层面讨论了ChatGPT对于传播研究意味着什么,以及它提出了什么新问题和新挑战。但是从自反性的角度来看,传播学科可能更需要讨论的是:传播教育和传播研究本身是否也会遭到颠覆性的挑战?
  从目前ChatGPT所表现出来的能力看,它在撰写广告、公关、宣传策划、脚本及解说词,以及分镜头设计与绘图、插画绘制等许多方面都有惊人的表现,可以预见,在不断地学习与进化过程中,它的能力很快就会超越大部分中等水平的媒体工作者,中小公司及投入较小的传播活动的工作,为了降低成本,将会引入越来越多的人工智能。在这种情况下,是否还需要培养这么多的新闻及广告公关人才?
  随着底层传媒工作被机器辅助甚至替代,只需要少量能够提出明确要求的经验丰富的媒体工作者即可胜任目前的大部分工作。同时,通过提问进行知识生产的逻辑更青睐具有思想性、能够突破既有常规的人才。教育可能会回归古希腊和先秦时期中国的那种博雅的通才式教育,和新闻传播人才竞争的可能不是本专业的毕业生,而是来自于各个专业的毕业生。其实今天在自媒体和短视频时代,这个趋势已经非常明显。大部分从事传播工作的网红们及背后的MCN机构工作者,都不是传统的传播专业培养出来的。
  虽然新闻传播专业不至于消失,但是很可能会像传统的文史哲等人文学科一样,随着人才市场需求的降低而逐渐萎缩。
  同样受到冲击的还有传播研究者。Chat
  GPT在量化和质化数据分析与处理上具有强大的表现,尤其是在自然语言识别与处理上功能增强,解决了语言情感分析的问题。可以设想,未来对于具体内容的传播效果和舆情的分析,将变得更加简便。实践领域对于理论的需求和动力也将减少,因为从实践的角度而言,已经不需要理论从上至下地进行解释与提出建议,机器可以从下至上地进行分析与提出建议,提出更具有针对性的解决方案。只要提出要求,输入数据甚至让机器去搜集数据,许多经验性的问题都可以迅速解决。这在给传播研究带来便利的同时,也在抢夺着传播研究者的饭碗。理论与实践将会进一步分离,理论主要是为了求知与解释的需要,而与实践的需要将进一步渐行渐远。
  当然,在目前的时间点,进行预测和判断可能为时尚早。不过可以预见的是,资本欲望会和技术的欲望重合,义无反顾地向前加速发展。从人类的历史来看,只能用魔法打败魔法,技术的问题并不是靠控制加以解决,而只能通过更多的技术来解决。就像波德里亚(1987/2012:152)所说:“应该更加寄希望于信息的过剩或武器的过剩,而少寄希望于对信息的控制或对武器的控制。哪里有危险,哪里就有救渡(荷尔德林诗)。”■
  
参考文献:
保罗·瓦兹拉维克等(1967/2016)。《人类沟通的语用学:一项关于互动模式、病理学与悖论的研究》(王继堃等译)。上海:华东师范大学出版社。
波德里亚(1987/2012)。《冷记忆:1980-1985》(张新木,李万文译)。南京:南京大学出版社。
陈嘉映(2003)。《语言哲学》。北京:北京大学出版社。
21世纪经济报道公众号(2023)。检索于https://mp.weixin.qq.com/s/mDbrIfGrhgovyaBxTzGXDw。
伽达默尔(1999)。《真理与方法》(洪汉鼎译)。上海:上海译文出版社。
海德格尔(1950/2018)。技术的追问,载孙周兴(编译),《存在的天命:海德格尔技术哲学文选》(第135-156页)。北京:中国美术学院出版社。
海德格尔(1979/1999)。《存在与时间(修订译本)》(陈嘉映,王庆节译)。北京:三联出版社。
海德格尔(2004/2017)。《形而上学的基本概念:世界-有限性-孤独性》(赵卫国译)。北京:商务印书馆。
韩炳哲(2016/2019)。《爱欲之死》(宋娀译)。北京:中信出版社。
韩炳哲(2021/2023)。《非物:生活世界变革》(谢晓川译)。上海:东方出版中心。
黑格尔(1832/2013)。《精神现象学》(先刚译)。北京:人民出版社。
刘海龙,谢卓潇,束开荣(2021)。网络化身体:病毒与补丁。《新闻大学》,(5),40-55。
柯林武德(1939/2005)。《柯林武德自传》(陈静译)。北京:北京大学出版社。
迈克尔·波伦(2001/2005)。《植物的欲望:植物眼中的世界》(王毅译)。上海:上海人民出版社。
迈克尔·波兰尼(1958/2016)。《个人知识:朝向后批判哲学》(徐陶译)。上海:上海人民出版社。
米歇尔·福柯(1966/2016)。《词与物》(莫伟民译)。上海:上海三联书店。
托马斯·库恩(1962/2004)。《科学革命的结构》(金吾伦,胡新和译)。北京:北京大学出版社。
叶克飞(2023年6月7日)。AI能写高考作文了,人类为何仍需要写作?《新京报》,A02。
袁春燕(2023年4月4日)。放下“想赢”包袱 离胜利更近。《宝安日报》,C03。
伊曼纽尔·列维纳斯(1961/2016)。《总体与无限:论外在性》(朱刚译),北京:北京大学出版社。
詹姆斯·巴拉特(2016)。《我们最后的发明:人工智能与人类时代的终结》(闾佳译)。北京:电子工业出版社。
ChiangT.(Feb 92023). ChatGPT Is a Blurry JPEG of the Web. New Yorker .
Derrida, J. (1972/1981). Dissemination(Johnson, B. Trans.). London: The Athlone Press.
Kissinger, H.Eric SchmidtE. and Huttenlocher, D.(February 242023). ChatGPT Heralds an Intellectual Revolution. The Wall Street Journal.
Noam ChomskyN. , RobertsI. and Watumull, J. (March 82023). The False Promise of ChatGPT. New York Times.
WeiserB. (May 272023). A Man Sued Avianca Airline. His Lawyer Used ChatGPT. New York Times.
  
刘海龙系中国人民大学新闻与社会发展研究中心研究员、中国人民大学新闻学院教授,连晓东(通讯作者)系《中国电子报》编辑。本成果受中国人民大学2023年度“中央高校建设世界一流大学(本科)和特色发展引导专项资金、中央高校基本科研业务费”支持 。
  
  
  
  
主管单位: 上海报业集团
主办单位: 上海报业集团      上海社会科学院新闻研究所