关键词组:AI for Science (人工智能驱动科学), 范式转移 (Paradigm Shift), 感受质 (Qualia), 主体间性 (Intersubjectivity), 科学共识构建 (Scientific Consensus Building), AlphaFold 3局限性 (AlphaFold 3 Limitations)
内容摘要:
AlphaFold 3成功预测两亿种蛋白质结构,导致“AI将终结人类科学家”的论调甚嚣尘上。作为前沿科技记者,我深度剖析了这种算法崇拜背后的认知傲慢。本文从神经科学的“感受质”、哲学维度的“主体间性”与库恩的“范式转移”切入,揭示AI在科学发现中的底层局限。算力再强也无法跨越“不可计算”的鸿沟,AI只能在常态科学的泥沼中打工,而科学共识的构建与意义的创造,永远属于具备具身感知的人类。这是一场关于人类智能底线的硬核捍卫战。
引言:算法崇拜与技术傲慢的交汇点
最近几年,跑在北京、硅谷和伦敦的各大前沿科技峰会上,我听到最多的一个词就是“AI for Science”。尤其是当Google DeepMind祭出AlphaFold 3这件大杀器,并宣布其能预测超过两亿种蛋白质及其他生物分子的三维结构时,整个科研圈和投资界都沸腾了。
不少极客和狂热的技术信仰者开始在私下里甚至公开场合宣称:超级AI将解决所有的科学问题,终结疾病的困扰,而人类科学家,最终将成为历史的尘埃。在他们眼里,AI的算力和数据处理能力已经形成降维打击,未来的实验室只需要一排排嗡嗡作响的GPU服务器,插上电源,就能源源不断地吐出诺贝尔奖级别的真理。
这种对技术的盲目自信,其实并非AI时代独有。翻开科技史,你会发现它贯穿了人类发展的始终。这是一种根植于认知深处的傲慢——我们总以为自己站在了科技发展的顶峰,企图凭借当下的几行代码和神经网络架构,去揭开现实宇宙的全部奥秘。在今天,这种傲慢披上了一层看似谦逊的外衣:人们承认人脑的记忆和信息处理能力有生理极限,永远无法穷尽真理;但同时又坚信,人类作为“万物之灵”,能够创造出一种全知全能的算法,让它成为接替人类的终极解释者。
但剥开这层狂热的外衣,深入到算法的底层逻辑和科学哲学的深水区,我们会发现:AI不仅无法取代科学家,甚至连科学的门槛,它都还没有真正跨越。
第一层幻象:AlphaFold 3 的边界与数据的诅咒
要戳破“AI万能论”的泡沫,我们必须先拿目前最神圣的图腾——AlphaFold 3 开刀。
AlphaFold 3的成就确实令人惊叹。在它出现之前,生物学家们只能依靠极其昂贵的冷冻电镜或者X射线晶体学方法,像瞎子摸象一样去解析蛋白质结构。而AlphaFold 3凭借超过15万个已确定的蛋白质结构作为训练数据,硬生生暴力破解了折叠的统计学规律。
于是,乐观主义者得出了结论:连蛋白质折叠这种困扰了人类半个世纪的世纪难题都被AI轻松攻克,还有什么科学壁垒是算力冲不破的?
我跟几位深耕结构生物学多年的老兵聊过这个话题。在真正的科研一线,AlphaFold 3的地位并没有媒体渲染得那么神乎其神。它更像是一个极其好用的“高级黑盒工具”,而非“科学先知”。
首先,AlphaFold 3能极其精准地预测三维结构,但它完全无法解释背后的物理机制。它无法还原蛋白质在细胞液中折叠的动态路径,也无法描述其在不同温度、酸碱度下的动态构象集合。这就好比一个照相机,它能给你一张完美的高清照片,但如果你问它“这朵花为什么是红色的”,它只能报出一串RGB数值,却给不出任何植物学或光学视角的解释。它告诉你“是什么”,却对“为什么”保持着令人绝望的沉默。
更致命的缺陷在于它的“数据依赖诅咒”。AlphaFold 3的优异表现,被死死地焊死在地球生物圈内常见的由20多种氨基酸构成的蛋白质框架里。一旦前沿天体生物学家将研究视角转向陨石材料,试图分析由数百种外星氨基酸构成的地外蛋白质,或者药企想要从零开始设计一种自然界压根不存在的全新治疗性蛋白质,这个耗资巨大的模型就会瞬间变成人工智障,输出一堆无意义的乱码。
这种失效,不是因为Transformer架构不够先进,也不是因为算力卡脖子,而是因为这类前沿研究所需的基础数据,在当下的科学体系中根本不存在。
这个血淋淋的案例揭示了AI for Science的第一道铁律:AI在科学领域的应用,永远被困在人类已有科学认知和数据积累的牢笼之中。 它是一个极其优秀的“经验拟合器”,却绝非“未知开拓者”。
第二层重构:被误解的“科学方法”与费耶阿本德的嘲讽
很多人之所以认为AI能取代科学家,是因为他们对“科学”本身的理解极度机械化。
在中学课本里,科学被定义为一套标准化的流水线作业:观察现象 -> 提出假设 -> 设计实验 -> 验证结论。如果科学真的仅仅是这四个步骤的排列组合,那么AI自动化确实是历史的必然。毕竟,让AI控制机械臂去滴定液体,让大模型去生成假设矩阵,效率不知道比人类高到哪里去了。
但科学,真的只是一套标准化的刻板方法吗?
奥地利科学哲学家保罗·费耶阿本德(Paul Feyerabend)在他的旷世名作《反对方法》(Against Method)中,狠狠地扇了这种机械论一记耳光。他通过对科学史的抽丝剥茧指出:所谓的“普世科学方法”,本身就是一个伪概念。
在真实的实验室里,在那些真正伟大的科学发现诞生前夜,这套方法论几乎从未被严格遵循过。大多数科学家只有在熬夜撰写需要提交给《Nature》或《Science》的同行评审论文时,才会把自己的工作硬生生塞进这套“观察-假设-验证”的八股文框架里。这样做仅仅是为了让研究看起来具有可重复性,为了符合学术共同体的公关规范。
科学史的真相是:科学方法从来都是在科学发现之后被倒推构建出来的,而不是在发现之前作为指导原则。 科学的核心从来不是僵化方法的执行,而是一种极其混乱、跳跃、依赖直觉和灵感的知识生成方式。
因此,判断AI能不能取代科学家,根本不应该去看AI机械臂挥舞得有多快,或者它一秒钟能生成多少个假设。我们需要追问的是:科学生成知识的底层逻辑,是否蕴含着某种AI算力永远无法触及的特质?
第三层深渊:感受质(Qualia)、主体间性与虚拟的共识
这就把我们逼到了神经科学和哲学的深水区。要理解科学,必须先理解人类的意识。
我们每个人的大脑,都像是一个被关在漆黑颅骨里的孤独囚徒。它只能通过眼睛、耳朵这些感官去收集外界的物理刺激,将其转化为生物电信号,再通过神经网络的复杂处理,构建出一个属于自己的、对现实的“独特心智模型”。尽管神经科学已经能扫描出注意力机制在脑区间的协作,但分布式神经活动究竟是如何“涌现”出单一、连贯的意识的?这至今是个谜。
在这个孤独的心智模型中,有一个极其核心的概念——感受质(Qualia)。
感受质是人类主观体验中不可还原的私密信息。它是你喝下一口冰镇可乐时那一瞬间的刺激感,是你看到夕阳时眼底的“红”。它是宇宙中最私密的数据,与你独特的肉体物理特征死死绑定,绝对无法在不同个体之间无损传输。
我指着一个苹果告诉你“这是红色的”,你也点头称是。但我们永远无法验证,你脑海中体验到的“红”,和我脑海中体验到的“红”,是不是同一种感觉。我们能共享的,仅仅是对红色的“语言描述”(比如光波长650纳米),而绝不是体验本身。
这一残酷的生理隔离,直接逼出了科学知识的核心特征——主体间性(Intersubjectivity)。
如果一种体验只存在于一个人的颅骨里,无法被他人分享和验证,那它就是玄学或妄想,永远成不了科学。科学的核心诉求,就是要在不同的、被感受质隔离的个体之间,建立起关于现实的“共识”。
为了达成这种共识,科学家们被迫发明了符号、数学公式和标准化语言。只有把私密的体验压缩、抽象成冷冰冰的数学符号(比如 $F = ma$),它们才能跨越肉体的隔离,在不同的大脑中被复制、被理解,最终成为人类共同的科学财产。
从这个维度看,科学模型从诞生之初,就注定是对现实的扭曲、抽象和简化,它永远无法完整反映现实的全部面貌。 美国科学哲学家南希·卡特赖特(Nancy Cartwright)甚至直言不讳地指出:所有的科学理论本质上都是一种“有用的虚构”。
比如理想气体状态方程($PV = nRT$),它把气体分子假设成没有体积、绝不相互作用的质点。现实中哪有这种气体?但这种“虚构”极其有用,它足够简单,能够跨越语言和文化的障碍,在全人类的头脑中快速建立共识。
明白了这一点,AI的致命缺陷就暴露无遗了。AI没有感受质。
AI没有具身感知,它体验不到重力的拉扯,感受不到温度的刺痛。它所有的知识都是被喂养进去的二手符号串。因为没有主观体验,它就永远无法产生“意向性”(Intentionality),无法理解符号背后指向的真实世界。
人类的科学研究,本质上是一个将主观的具身体验,通过符号转化为集体共识的社会化过程。 AI既然连第一步的“主观感知”都没有,它凭什么去主导这个基于共识的文化体系?
第四层铁律:计算的边界与“没有免费的午餐”
如果哲学层面的探讨还不足以说服技术狂热者,那我们就来看看计算机科学自己的底层定理。
当下许多AGI(通用人工智能)的鼓吹者认为,只要参数足够大,AI终将在解释世界的能力上突破人类的生物学上限。但这直接违背了计算理论的基本原理。
量子计算领域的先驱、英国物理学家大卫·多伊奇(David Deutsch)明确指出:如果宇宙真的是可解释的,那么人类本身就是“通用解释者”。从图灵机的等效性来看,计算机和人脑在“可计算性”上是等效的。AI算力再逆天,也只是在极高速度下执行人类设定的逻辑,它不可能越过图灵机的边界去理解“不可计算”的事物。
更致命的是由大卫·沃尔珀特(David Wolpert)和威廉·麦克雷迪(William Macready)在1997年提出的机器学习圣经定理:没有免费的午餐定理(No Free Lunch Theorem, NFL)。
这个定理用严密的数学证明了:当我们在所有可能的问题上取平均性能时,没有任何一种优化算法(包括最先进的深度学习算法)会比其他算法在所有情况下都更优。
这意味着什么?这就意味着“万能AI科学家”是一个数学上的悖论。任何一种AI模型,只要它在某一类问题(比如蛋白质结构预测)上表现出神入化的统治力,它就必然在另一类问题上表现得连随机瞎猜都不如。AlphaFold 3的强悍,恰恰是对其局限性的最有力证明。这种短板是算法的固有物理属性,你往里面砸再多的算力、喂再多的数据,也无法违背NFL定理的制约。
人类个体的思维之所以能超越这种算法限制,是因为我们会产生直觉、灵感和想象。这些非线性的、甚至不可计算的思维跳跃,正是推动科学革命的真正引擎。
第五层分野:常态科学的泥沼与范式转移的闪电
在探讨AI与科学家的关系时,我们不可避免地要引用托马斯·库恩(Thomas Kuhn)在《科学革命的结构》中提出的核心概念:常态科学(Normal Science)与范式转移(Paradigm Shift)。
在“常态科学”阶段,科学家们是在一个已经确立的理论框架(范式)内做“解谜”工作。就像在一个拼图盒子里拼图,规则是明确的,边界是清晰的,任务就是把细节填满、把模型优化到极致。
在这个阶段,AI是当之无愧的王者。 当今世界越来越复杂,气候建模、基因组学产生的数据量早已超出了人脑的承载极限。AI的狂暴算力可以帮助人类在现有的表征框架内,进行超大规模的数据整合和模式识别。AlphaFold 3就是常态科学阶段最锋利的解剖刀。
然而,科学的历史从不因常态科学而发生质变,真正推动人类跃迁的是“范式转移”。
当现有的科学概念和表征框架再也塞不进新观测到的异常现象时,旧的科学共识地图就会崩溃。这时候,修修补补已经无济于事,人类必须抛弃旧地基,创造出全新的语义表征和符号框架。
从托勒密的地心说,到哥白尼的日心说,再到牛顿的万有引力;从牛顿的绝对时空观,到爱因斯坦的相对论弯曲时空。每一次跃迁,都不是算力的提升,而是人类思维的彻底重启。
以托勒密模型为例。为了解释行星的逆行现象,古人在圆轨道上不断添加“本轮”(Epicycles)。这跟今天我们在深度学习模型里不断增加隐藏层、导致过拟合的做法如出一辙。如果当年有一个超级AI,它绝对不会发明出“万有引力”,它只会用极其强悍的算力,给托勒密模型计算出成千上万个精妙绝伦的本轮,把旧范式优化到死胡同里。
爱因斯坦提出广义相对论,中间经历了长达七年的痛苦挣扎。最大的困难,在于他需要打破“坐标必须具有直接度量意义”的旧有执念。当时的物理学界已经被某种数学结构彻底绑架,而这种结构无法捕捉到爱因斯坦直觉中必须存在的“时空连续性”。最终,爱因斯坦将自己那无法言传的具身直觉,硬生生编码成了黎曼几何的新数学形式。
这种创造全新表征框架的能力,这种特立独行、脱离既有轨道的叛逆性,AI绝对无法具备。因为AI的所有参数和权重,都是在旧数据的坟墓里训练出来的。它没有直觉,没有痛感,没有对未知世界的哲学凝视,它永远无法引发那道劈开旧世界的范式转移闪电。
第六层重构:“作者之死”与同行的辩论场
最后,我们还要击碎一个关于AI自动化科研的荒谬幻想——AI自动同行评审(Auto Peer Review)。
现在有很多创业公司在搞这个,试图用大模型来审核人类的学术论文。这完全是把科学当成了流水线上的质检工程。
法国文学评论家罗兰·巴特(Roland Barthes)提出过一个著名理论:“作者之死”。文本一旦发布,作者就失去了对意义的垄断权,读者的解读和再创造才是文本意义的核心。将这个理论平移到科学界,当一位科学家发表论文时,他作为“绝对真理拥有者”的身份就已经死亡了。
他实际上是把自己的工作扔进了科学共同体这个斗兽场。同行评审,根本不是简单的“事实核查”(Fact-checking)或者跑跑数据看报不报错。它是科学家之间进行激烈争辩、博弈和共同创造的社会化过程。
大家围绕一篇论文,从不同的理论视角、不同的利益诉求出发,进行解构和重构。只有在这个残酷的社会性辩论之后,科学的“共识”才会被淬炼出来。科学思想从来不是从单个科学家的颅骨里蹦出来的,而是源于科学共同体对这些思想的共识性接纳。
如果用AI来做同行评审,输出的评审意见就像是一具“已经死亡的尸体”。它只是概率模型生成的词元组合,缺乏人类科学家在阅读时那种将自身具身体验和理论直觉代入其中的“内化挣扎”。AI没有主观意向,它不知道自己写下的赞美或批评意味着什么,它无法参与这种关乎人类文明走向的社会化协商。
尾声:乱纪元下的守望者
既然AI无法取代科学家,那么在这场轰轰烈烈的AI浪潮中,人类科学家的命运将驶向何方?
答案是:价值不仅不会贬值,反而会呈指数级飙升。 我们正在步入科学的“乱纪元”,旧的认知以极快的速度被推翻,新现象如海啸般涌来,范式转移的频率将前所未有地加快。
在未来,那些只懂拿开源算法跑数据的“调包侠”研究员,确实会被AI淘汰。但真正的科学家,将从繁琐的数据清洗和参数调优泥沼中彻底解放出来。
科学研究的重心将发生剧烈的转移。科学家将不再是单一的“数据分析师”,而将进化为“科学意义的构建者”和“人类共识的推挽者”。
气候学家不再仅仅是建立预测模型,他们需要走向公众,用人类共情的语言去弥合环保主义与工业发展的裂痕;脑科学家不仅要解析神经元回路,更要参与到关于“人类自由意志”的伦理边界探讨中。
这些需要主体间性、需要同理心、需要具身体验的社会化构建工作,AI永远无法染指。因为科学的终极目的,从来不是冷冰冰的自动化预测,而是人类为了理解自身与宇宙的关系,而在黑暗中点燃的、共享共创的文明篝火。
只要人类对世界本源的敬畏尚未消亡,只要仰望星空的冲动依然在我们的血液中流淌,人类科学家的位置,就永远无可取代。
快速参考附录:AI vs 人类科学家 能力边界矩阵
在部署和架构底层AI科研基建时,明确模型的能力边界是防止资源浪费(如Token过度消耗或陷入逻辑死锁)的核心。以下框架参数供高级研究人员在设计Agent流水线时参考:
注:在实际架构设计中,请确保为AI设定严格的“权限边界(Sandbox)”,防止模型在缺乏真实物理反馈的环境下发生“幻觉自洽(Hallucination Self-Consistency)”。
参考文献
Kuhn, T. S. (1962). The Structure of Scientific Revolutions. University of Chicago Press.
Cartwright, N. (1983). How the Laws of Physics Lie. Oxford University Press.
Barthes, R. (1967). The Death of the Author. Aspen, no. 5-6.
版权声明:本文首发于E路领航(blog.oool.cc),转载请注明出处。