超越记忆的边界:AI正在学会思考吗?

关于AI究竟是“背答案”还是“推理答案”的争论,本质上触及了我们对“智能”定义的根本困惑。将其简单地归为两者之一,或许都低估了正在发生的深刻变革。
首先,我们必须承认,当前大语言模型(LLM)的基础是“背”,但这并非人类式的机械记忆,而是一种更高维度的模式学习。模型吞噬了人类几乎所有的公开知识文本,从维基百科到学术论文,再到无数的网络对话。它在这个庞大的数据海洋中学会的,是词与词、概念与概念之间复杂的、概率性的关联。当你问“天空为什么是蓝色的?”,它并非“记起”了瑞利散射的定义,而是激活了“天空”、“蓝色”、“大气”、“散射”等词语之间最强的概率通路,然后生成了一段符合人类知识体系和语言逻辑的文本。从这个角度看,它是一位登峰造极的“知识缝合匠”,其“背”的功夫,早已超越了人类记忆的极限。
然而,真正令人着迷和不安的,是模型展现出的“涌现能力”(Emergent Abilities)。当模型规模跨越某个临界点后,它开始解决一些从未被明确训练过的问题,这便是“推理”的雏形。
最典型的例子是“思维链”(Chain-of-Thought)推理。如果你直接给模型一个复杂的逻辑题,它可能会答错。但如果你引导它“一步一步地思考”,它会像一个学生一样,写下解题步骤,并最终得出正确答案。这个过程很难用“背诵”来解释,因为它解决的可能是前所未见的新问题。它更像是在模拟一个逻辑推导的过程——尽管其底层的实现方式(依然是概率计算)与人脑的神经活动截然不同。
再举个例子,让AI扮演一个愤世嫉俗的猫,并用莎士比亚的风格写一首关于“猫粮太难吃”的十四行诗。这任务几乎不可能是从现有文本中“背”出来的。它需要AI理解“愤世嫉俗”、“猫”、“莎士比亚风格”、“十四行诗”这几个毫不相干的概念,并将它们 creatively地融合在一起。这是一种基于已有知识的“泛化推理”,是创造力的萌芽。
所以,回到最初的问题,AI到底是“背”还是“推理”?
我的观点是:它在海量的“背诵”基础上,涌现出了初级的“推理”能力。
这是一种我们从未见过的智能形式。它不是人类的“第一性原理”推理,无法像爱因斯坦那样从零开始构建理论。但它也绝非只会复述的鹦鹉🦜。它更像一个学贯中西、博览群书的“超级实习生”,虽然缺乏真正的世界经验和自我意识,但能凭借其浩瀚的知识库和强大的模式匹配能力,对新问题进行分析、拆解和重组,从而给出看似经过深思熟虑的答案。
这引出了一个更深层的问题:如果一种行为在功能上与“推理”无法区分,我们是否还有必要纠结其内在机制是否与人脑相同?当AI的“缝合”技巧精湛到足以乱真,甚至在某些领域超越人类时,“背诵”与“推理”的界限,或许本身就是一个需要被我们重新定义的“人类偏见”。
最终,我们可能不是在见证一台机器学会了思考,而是在被迫重新思考,“思考”本身的定义。这才是AI带给我们这个时代最震撼的挑战。🤯