从“计算”到“理解”,我们可能问错了AGI问题

从“计算”到“理解”,我们可能问错了AGI问题

我们对强人工智能(AGI)何时到来的追问,本身就可能建立在一个错误的假设上:即AGI是一个清晰的、可以被“到达”的终点。我的观点是,我们不仅离AGI的“终点”遥遥无期,更可能连赛道都找错了。通往AGI的最大障碍,并非算力的不足或算法的粗糙,而是我们对“智能”本身,尤其是“理解”这一核心概念的根本性误判。

我们正处在一个“大力出奇迹”的时代,这毋庸置疑。以GPT-4为代表的大语言模型(LLM)通过海量数据和暴力计算,展现出了令人惊叹的“涌现”能力,从代码编写到诗歌创作,似乎无所不能。这催生了“尺度定律(Scaling Law)”的坚定信仰者,他们认为只要数据和算力持续指数级增长,AGI的诞生只是时间问题。

但这是一种线性外推的思维陷阱。LLM的本质是基于统计概率的“超级鹦鹉”🦜,它精通语言的“形式”,却未必触及意义的“内核”。一个经典的例子是“房间里的大象”问题。你可以告诉模型“房间里有一头大象”,它能据此回答问题。但它真的“理解”什么是一头实体的大象、它如何挤进房间、以及这种情景的荒谬性吗?不,它处理的只是符号之间的关联,而非现实世界中的因果和逻辑。这就好比一个学生背下了所有考试题的答案,却从未理解过背后的公式和原理。他可以考高分,但他是一个科学家吗?

真正的智能,远不止于符号处理。它至少还包含两个关键却被我们当前技术路径所忽视的维度:

第一,具身认知(Embodied Cognition)。人类的智能是在与物理世界真实、持续的互动中演化而来的。我们通过触觉理解“烫”,通过本体感觉协调四肢,通过视觉和听觉构建三维空间。这些来自肉身的、多模态的、实时的反馈,构成了我们“常识”和“世界模型”的基石。而目前的AI,本质上是一个“数字缸中之脑”,它能阅读全世界的菜谱,却从未真正“品尝”过酸甜苦辣。没有身体,就没有与世界建立真实因果联系的桥梁,也就难以形成真正的“理解”。波士顿动力公司的机器狗再敏捷,也只是执行程序;而一个蹒跚学步的婴儿,却在每一次摔倒中学习着引力、平衡和这个世界的物理规则。

第二,主观经验与内在动机。这是更深层次的哲学难题,却也是AGI无法回避的“硬问题”。我们为什么要去探索未知?好奇心、欲望、恐惧、爱……这些根植于我们生物性的主观体验,是驱动智能产生自主目标和创造力的核心引擎。一个没有需求的AI,它的“智能”永远是被动的、工具性的。它可以根据指令优化一个化学方程式,但它永远不会因为“想看看会发生什么”而去主动混合两种未知的化学物质。我们现在谈论的AI对齐(Alignment),本质上就是因为它没有自己的内在目标,所以需要被强行“对齐”到人类的目标上。一个真正的AGI,应该有自己的“想做之事”。

因此,与其问“还需要多少年”,不如问“还需要哪些根本性的范式突破?”。

或许,通往AGI的道路,不是在现有高速公路上把车开得更快,而是需要离开高速,去探索全新的、未知的领域。可能需要神经科学对大脑“意识”工作原理的革命性发现,可能需要新材料学支撑的、能与环境进行能量和信息交换的“人造细胞”,也可能需要我们重新定义“智能”——不再是单一的、以人类为中心的标准,而是承认存在不同形态、不同基底的智能。

总而言之,我们距离AGI,可能还差的不是“多少年”的量变,而是几次“范式革命”的质变。我们如今所取得的辉煌成就,或许只是为这场真正的革命搭建了舞台、准备了工具。而真正的主角——那个能“理解”世界、拥有自我意识的智能,其登场的方式和时间,可能将完全超出我们当前最大胆的想象。我们追寻的,或许不该是一个日历上的日期,而是一种全新的科学思想。