AI杀死了专家吗?

发布时间:2025-12-16 17:27  浏览量:16

2016年春天,围棋世界经历了一场震动。围棋人工智能(AI)AlphaGo在全世界的瞩目之下以4:1击败了曾14次夺得世界冠军的围棋职业九段棋手李世石。围棋,这项被誉为最接近人类直觉与灵性的古老博弈,在某种意义上第一次被机器征服。尤其是在第二盘中,AlphaGo第37手的肩冲完全颠覆了人类棋手的围棋理论,聂卫平九段更是直言对AlphaGo的下法“脱帽致敬”。

2016年3月,DeepMind的AlphaGo与韩国围棋九段棋手李世石展开人机对决。

然而,更值得关注的是这场对弈引发的连锁反应:职业棋手开始分析AI棋谱,棋院纷纷组织AI学习会,原本以人类直觉和经验为核心的围棋知识体系,第一次大规模接纳并试图翻译一个“不可解释”的非人类对手的经验。AI不仅改变了比赛的输赢,更触及一个核心问题:谁才是围棋专家?

这个问题不只属于围棋世界。今天,当AI医生给出诊断意见、AI法官建议量刑幅度、AI教师批改作文,我们越来越多地面临一种现状: 判断力、解释力和知识权威不再专属于人类专家。在人工智能迅速发展的今天,我们是否仍然需要“专家”?怎样的专长才值得被信任?

关系视角下的专家

在STS(科学、技术与社会)领域,专家并不被当作某种自然存在的知识拥有者。相反,STS强调,所谓“专家”是通过特定的社会实践与文化协商确立的一种身份。围绕知识和实践的社会关系,在专家的定义中占据了重要的角色。

从历史社会学的角度来看,史蒂文·夏平(Steven Shapin)和西蒙·谢弗(Simon Schaffer)在其著作《利维坦与空气泵》中指出, 科学知识的可信度从来不是单凭“实验是否真实”来判断的,而是依赖于讲述者的信誉、所属社群的判断标准以及当时的社会语境。

中译本为《利维坦与空气泵》,[美] 史蒂文·夏平、[美] 西蒙·谢弗,上海人民出版社,2008

书中介绍了罗伯特 · 波义耳(Robert Boyle)通过制造出空气泵并展示一系列实验(比如小动物在抽真空的空气泵中死亡),揭示了空气的自然属性,也“证明”了真空的存在。时至今日,他的实验仍被我们看作科学的典范。但这个空气泵实验在当时备受质疑。

波义耳主张借助空气泵制造出可见证的“事实”,以视觉可见的形式呈现自然定律;托马斯·霍布斯(Thomas Hobbes)等批评者则认为,科学知识必须来自演绎推理(deductive reasoning),而不是依赖不确定的感官经验或机械装置。这种实验无法获得政治上的普遍认可,因为它仅在特定场域中由特定人群(“绅士共同体”)操作,并未对公众开放。

这表明 ,科学实验并非天然具有说服力,它的权威来自专家制度、仪器的可信度与社群内部的见证。在后来的著作中,夏平更明确地提出 ,专家的本质不是谁“拥有”知识,而是谁“被信任”拥有知识。 也就是说,专家身份的确立不仅取决于专家本身的能力和知识,还深深依赖于社会关系、制度认证和文化符号资源。

拥有某种类型的知识以及围绕知识建筑的信任体系,两者同时形塑了专家的社会功用。甚至可以说,这种形塑的过程也决定了专家及其专长的类型,以及这些类型在生产知识和传播知识中发挥的作用。

哈里·科林斯(Harry Collins)与罗伯特·伊万斯(Robert Evans)在一系列论文及其著作《重新思考专长》(Rethinking Expertise)中对“专长”进行了分类,提出了两个重要概念: 贡献性专长 (contributory expertise)与 互动性专长 (interactional expertise)。前者指在一个领域做出实质贡献的能力,后者指某人很好地理解并使用一个专业领域的语言和概念的能力——尽管他可能无法参与该领域的实践操作。

这一区分特别适合用来描述当前AI与人类专家的关系: AI系统(如AlphaGo或AI医生)可能具备“贡献性专长” ,即它能完成某个具体任务,但它不具备互动性专长,即无法与人类专家共享语言、文化语境与实践经验,也无法理解专业行为背后的社会含义。

图1:GenAI对工作和劳动者的影响。

谢拉·加萨诺夫(Sheila Jasanoff)同样在她的研究中强调了专家的政治性角色。她指出,专家并不是孤立地在实践中运用他们的能力,相反,他们是 嵌入治理结构、文化传统和权力网络的实践者 。加萨诺夫指出,不同社会通过特定的制度性实践来判断“什么样的知识值得相信,谁有资格成为专家”。她对英国、德国与美国针对基因改造技术的监管进行比较,并指出:美国倾向于依赖专家机构出具“科学事实”,公众参与有限;而德国偏向通过程序正义强调广泛协商;英国更强调科学过程的透明性和专家之间的观点争论。

这一对比揭示,科学判断在不同社会中获得的合法性,与其说源于其技术内容,不如说源自专家嵌入的不同社会语境。在她提出的“共造”(co-production)框架中,科学知识与社会秩序是相互塑造的—— 我们“制造”专家的方式,反映了我们希望如何被治理,以及如何协商不确定性与风险。 专家不仅解释世界,也塑造了有资格参与解释的人。

AlphaGo之后:

专家转型,而非消亡

我们常常会听到一种声音,那就是“AI会取代人类专家”,但现实并没有那么简单,承认并建构AI的专长、围绕AI重建专家的社会功用,是一个相对复杂的过程。实际上,在AlphaGo战胜人类职业棋手后,围棋界并没有像某些领域那样掀起“AI取代论”的恐慌。相反,它展示了一种值得借鉴的“专家转型”模式。

职业棋手最初的确陷入了短暂的自我怀疑:“如果我看不懂AI下的棋,那我还算不算一个好棋手?”但很快,一种新的职业路径开始浮现:讲解AI下的棋,分析AI的策略,将机器智慧转化为人类可以吸收的知识。棋手不再是“原创者”,而是“解释者”和“翻译者”。围棋专家的权威不再来自“比你会下”,而是“比你更懂AI是怎么下的”。

一位职业棋手在访谈中告诉我:“现在的顶尖职业棋手,比拼的是谁能够更好地理解围棋AI给出的招法,运用在自己的实战中。”换言之, 谁能从围棋AI那里吸收到更多的知识,或者能把AI的招法更好地用人类语言表达出来,谁就是这个时代的围棋专家。

这种转型也正在更多的领域中发生。例如在医疗领域中,越来越多的医生开始借助AI辅助诊断,通过训练AI辅助工具,并将AI的判断翻译成患者更易理解的治疗建议。在这种协作中, AI医生是一个“有贡献力的意见提供者”,人类医生则扮演着“解释性判断者”和“价值协调者”的角色 ,尤其是与病人沟通AI的决策以及融合、协调不同技术手段之下的决策过程,并且让这些决策能够被病人、治理者、社会接受。

在STS视角下,这些现象并不意味着专家身份的瓦解,而是其在新技术条件下的再定义。这也是对“AI替代论”的一种有力回应: 真正重要的,不是AI能不能下好棋、诊好病,而是在谁的名义下,这些判断能够被社会接受,并转化为合乎规范的行动。

AI是工具,还是“专家”?

另外一个极具争议的方面,是作为“专家”的AI和人之间的关系。人们常说“AI是人类的工具”,但在围棋等AI高度发展的领域,AI早已不是传统意义上的“工具”了。

许多职业棋手在备战时,会与各种围棋AI对局,他们将AI视为“陪练”“分析师”,甚至“想象中的对手”。AI不再是一个工具式的存在,而是深度嵌入训练、评估、教学乃至比赛的全过程。

这种变化与美国学者J. C. R. 李克莱德(J. C. R. Licklider)在20世纪60年代提出的“人机共生”(Man-Computer Symbiosis)概念不谋而合。他设想了一种未来:人类与计算机将互为补充, 人类提供创造力和判断力,机器提供计算力和存储力,两者共同完成各自无法独立完成的任务。

然而,在现实中,这种“共生”并非总是对等的。在医疗、司法等领域中,AI的“建议”常常具备很高的技术权威,甚至能影响人类专家的判断。在一些场景中,人类专家甚至需要承担接受AI判断的后果,但却无法深入理解或反驳其生成逻辑。

如今,AI正面临更多类似的可解释性问题。AI可以快速提供判断结果,但往往无法解释如何得出这些判断。一个围棋AI可以告诉你某一手棋的胜率高达93%,但无法解释这一概率是基于哪些参数得出的;一个AI推荐系统可以过滤无数法律案例,但无法判断在特定文化与语境下,怎样的结果才是“正义的”。

对人类而言,当你无法解释一个判断时,又该如何为它承担责任?这是人类专家在与AI系统协作的过程中日益突出的伦理难题。正如玛德琳·艾利什(Madeleine Elish)与达娜·博伊德(Danah Boyd)指出的,在人机协同的现实中,人类往往被置于所谓的“道德缓冲区”(moral crumple zone)——即使他们并未直接控制系统,也可能在系统出错时成为最终的责任承担者。

社会学家弗兰克·帕斯科尔(Frank Pasquale)也曾警示道,当算法决策变得越来越难以理解,我们可能正在失去一个基本前提:唯有能够解释的判断,才可能被正当地监督与问责。换句话说,技术系统的不透明性不仅带来了认知上的障碍,更重塑了责任的边界与归属。

为什么我们仍然需要“专家”?

在AI快速渗透专业实践的今天,“专家”这个词似乎正在变得越来越尴尬。一方面,大众媒体不乏“AI超越医生”“AI战胜律师”“AI代替会计”的报道;另一方面,在社交网络和公共舆论中,专家又常被斥为“知识权威的代言人”或“失灵制度的象征”。仿佛我们既对专家失去了信任,又对AI的能力过度信任,陷入了一种悖论式的不安。

但STS研究告诉我们,专家的价值并不在于提供完美的答案,而在于承担责任、组织判断、协商不确定性。

如布莱恩·韦恩(Brian Wynne)在其研究核事故与公众信任的经典案例中指出的那样,公众对专家系统的不信任,并不是因为他们“不懂科学”,而是因为专家系统往往拒绝回应公众关心的问题,缺乏对实际经验和社会价值的理解。正是专家的“不可对话性”——无法接受质疑、无法解释其判断依据、无法与社会现实建立联结——削弱了其正当性。

在这种背景下,我们更需要能对AI的判断进行翻译和批评的专家角色。 他们或许不再是判断的“源头”,但仍然是社会意义和行动的“过滤器”。 专家的价值不在于提供决策本身,而在于在技术与社会之间建桥。 在面对模糊、复杂和价值冲突的问题时,专家不是一个替我们决策的“更聪明的大脑”,而是一个能协助我们共同面对风险、理解选择、承担后果的责任承担者。

AI的崛起没有使专家制度过时,反而让我们看到了专家制度的本质。未来的专家或许需要具备更多的跨界能力:既懂算法,也懂制度;既能读懂AI的输出,也能倾听民众的焦虑;既有技术判断力,也有社会感受力。这不是对专家角色的削弱,而是一次深刻的转型。不是因为专家不再重要,而是因为在AI时代,我们比任何时候都更需要那些能解释、沟通、调和矛盾、承担责任的人类判断者。