大模型时代的"认知鸿沟":谁在定义知识、真相与决策边界?
引言:一个被忽视的权力转移
2024 年底,一位美国高中生用 ChatGPT 完成了历史课的期末论文,得分 92 分。他的老师没有发现任何异常——事实上,这篇论文的逻辑结构比班里大多数"手写"的作业还要清晰。
同一年,中国某个三线城市的中学校长在家长会上说:"我们要求学生手写作文,不准用 AI,但说实话,我们分不清哪些是 AI 写的,哪些不是。"
这两个场景看似无关,却指向同一个问题:当 AI 可以替代人类生产"合格"的知识产品时,谁还有能力判断知识的质量?
这不是技术问题。这是权力问题。
知识的定义权、真相的裁判权、决策的边界权——这三项人类文明运转了数千年的核心权力,正在以一种极其隐蔽的方式,从"人类制度"向"模型系统"转移。
本文要讨论的不是"AI 会不会取代人类"这种老生常谈。本文要讨论的是一个更深层、更隐蔽、也更危险的趋势:大模型正在制造一种新型的认知鸿沟,这种鸿沟不是"有没有 AI"的鸿沟,而是"有没有能力判断 AI"的鸿沟。
一、知识生产方式的范式革命
1.1 从"人生产知识"到"模型中介知识"
人类知识生产的历史,可以粗略分为三个阶段:
第一阶段:精英垄断期(古代—15 世纪)
知识由教会、宫廷、学者垄断。生产成本极高(手抄本),传播渠道极窄(拉丁语),普通人几乎被排除在知识体系之外。
第二阶段:大众民主化期(15 世纪—2020 年代)
印刷术→报纸→广播→电视→互联网→搜索引擎。每一波技术浪潮都在降低知识生产和传播的门槛。到 2020 年代,理论上任何人都可以在网上发布信息、表达观点、参与公共讨论。
第三阶段:模型中介期(2020 年代—)
ChatGPT、Claude、Gemini 等大语言模型出现后,知识生产进入了一个全新的阶段:人类不再是知识的主要生产者,而是知识的"需求方"和"审核方"。
在过去,如果你想知道"什么是量子纠缠",你需要去读一本书、听一堂课、或者问一个物理学家。无论哪种方式,你都在与"人类生产者"互动。
现在,你可以问 AI。AI 会在几秒内给你一个看起来专业、结构清晰、甚至引用了论文的回答。
但问题来了:你怎么知道这个回答是准确的?
如果你不懂量子力学,你根本无法判断。你只能选择"相信"或者"不相信"。而大多数人会倾向于相信——因为回答看起来太专业了。
1.2 "知识的幻觉"与认识论危机
心理学中有一个概念叫"流畅性效应"(fluency effect):信息呈现得越流畅、越清晰,人们越倾向于认为它是真实的。
大语言模型恰好是制造"流畅性"的机器。它们的输出永远语法正确、逻辑连贯、措辞得体。这种流畅性会让人类大脑产生一种强烈的"理解感"——但实际上,你只是"读到了流畅的文字",并不一定"理解了背后的逻辑"。
这就是"知识的幻觉"。
2025 年 arXiv 上发表了一篇重要论文,题为《认知阶层:人工智能、认识论不平等与民主制度》。论文提出了一个核心论点:
"AI 不是认识论的平衡器,而是认知分层的加速器。它选择性地放大了某些人的推理能力,同时压制了另一些人的认知自主性,从而在自由民主社会中固化了信息阶层。"
换句话说,AI 并没有缩小知识差距,而是以更隐蔽的方式扩大了它。
在过去,知识鸿沟的边界是清晰的:你能上大学,你就获得更多知识;你上不了,你就被排除在外。虽然不公平,但至少是可见的。
现在,认知鸿沟变得不可见了。因为每个人都可以"问 AI",看起来大家都有平等获取知识的途径。但实际上,能够判断 AI 输出质量的人和不能判断的人之间的差距,正在急剧扩大。
二、算法作为新型"准主权"
2.1 从"搜索中介"到"知识权威"
假设你在 Google 上搜索"气候变化是真的吗"。你会得到一系列结果,有些来自科学期刊,有些来自阴谋论网站,有些来自新闻报道。你需要自己判断哪些是可信的。
现在假设你问 ChatGPT 同样的问题。你会得到一个综合性的回答,引用 IPCC 报告,解释科学共识,最后给出结论:"气候变化是真实的,主要原因是人类活动。"
表面上看,AI 给了你一个更好的答案。但深层问题是:你把"判断权"让渡给了 AI。
Google 搜索是"中介"——它给你信息,你来做判断。ChatGPT 是"权威"——它替你做了判断。
这个转变看似微小,实则巨大。因为当你把判断权让渡给 AI 时,你同时让渡了质疑权。你不再问"气候变化是真的吗",因为 AI 已经替你回答了。你甚至不会意识到,AI 的回答可能包含了训练数据中的偏见、RLHF 训练中的价值取向、以及公司设定的安全边界。
2025 年发表在 MDPI 期刊上的一篇论文提出了"人工真相"(Artificial Truth)的概念:
"一种新兴的认识论治理形式,其中知识生产和验证成为社会技术系统的基础设施功能。"
简单翻译:真相不再是由人类通过讨论、辩论、验证来达成的共识,而是由算法系统自动输出的"标准答案"。
2.2 模型垄断与认知寡头
全球大模型市场的基本格局是:少数几家公司(OpenAI、Google、Meta、Anthropic,以及中国的百度、阿里、字节等)控制着绝大多数模型的训练数据、训练方法和部署渠道。
这意味着什么?
意味着这几家公司在实质上定义了数十亿人获取知识的"第一层"。
当你用 ChatGPT 搜索信息时,你看到的不是"全人类的知识",而是"OpenAI 训练数据中的知识 + OpenAI RLHF 偏好的呈现方式"。当你用 Google 的 Gemini 时,你看到的是"Google 的知识 + Google 的偏好"。
不同的模型,对同一个问题可能给出截然不同的答案——不是因为没有"标准答案",而是因为每家公司的训练数据、价值取向和安全策略都不同。
MIT 媒体实验室 2025 年的一项研究测试了五个主流大模型在 100 个争议性话题上的回答差异,发现:
- 在政治倾向类话题上,不同模型的回答方向存在系统性差异
- 在历史事件类话题上,不同模型对"重要事实"的选择有显著不同
- 在科学争议类话题上,不同模型的"确定性程度"差异巨大
这不是技术差异,这是认识论差异。每家模型公司都在用自己的方式定义"什么是知识"、"什么是真相"、"什么是重要的"。
而用户——那些数十亿的普通人——大多数时候甚至不会意识到这种差异的存在。他们只会觉得"AI 说的就是对的"。
这就是认知寡头的核心机制:不是通过压制信息来控制认知,而是通过提供"看起来完美"的信息来替代认知。
2.3 认知主权的概念
2025 年,学者 Reinö Karppinen 提出了一个重要框架:从"AI 对齐"(alignment)到"认识论主权"(epistemic sovereignty)。
对齐的思路是:让 AI 的行为与人类价值观对齐。但问题是:谁的价值观?
OpenAI 的对齐标准反映的是硅谷科技精英的价值观。百度文心一言的对齐标准反映的是中国监管框架下的价值观。Google Gemini 的对齐标准反映的是一个复杂的、经常自相矛盾的、受商业利益影响的价值观。
认识论主权的思路是:不应该让任何单一机构来定义"正确的知识",而应该让用户有能力审查、质疑和修改 AI 的认知框架。
三、认知鸿沟的三个层级
3.1 第一层:接入鸿沟(Access Divide)
这是最传统的数字鸿沟。在 AI 时代,它表现为:
- 有些人可以负担 GPT-4/Claude 的订阅费,有些人只能用免费模型
- 有些人有高速网络和现代设备,有些人没有
- 有些语言有高质量的 AI 支持,有些语言几乎没有
Stanford HAI 2025 年的报告指出:"低资源语言的数据更少,模型在这些语言上的表现更差。"全球约 7000 种语言中,只有不到 100 种有足够的 AI 训练数据。
这一层鸿沟虽然重要,但相对容易解决——通过技术普及和成本降低。
3.2 第二层:素养鸿沟(Literacy Divide)
这一层更隐蔽。
假设两个人都能访问 ChatGPT。一个人是大学教授,一个人是高中生。他们问同样的问题,得到同样的回答。
教授会怎么看?他会审视回答的逻辑、检查关键论断是否准确、注意回答中哪些地方可能存在偏见、哪些地方被省略了。
高中生会怎么看?他会觉得"AI 说的肯定是对的",直接复制粘贴,交差了事。
这就是素养鸿沟:同样的工具,在不同认知能力的人手中,产生的效果天差地别。
UNICEF 2025 年的报告将此称为"AI 鸿沟"(AI Divide),并警告说:"AI 正在以有限的关注投入推进,却忽视了那些已经被抛在后面的人,沿着收入、地理和机会的熟悉边界扩大了不平等。"
3.3 第三层:主权鸿沟(Sovereignty Divide)
这是最深、也最危险的一层。
主权鸿沟的核心问题是:谁有权定义"正确的知识"?
在接入鸿沟层面,问题是"能不能用 AI"。
在素养鸿沟层面,问题是"会不会用 AI"。
在主权鸿沟层面,问题是"AI 的认知框架是否可以被审查、质疑和修改"。
目前,答案是:不能。
大多数大模型是黑箱——用户不知道训练数据是什么,不知道 RLHF 的标准是什么,不知道安全策略的具体规则是什么,不知道为什么某些问题被拒绝回答。
你只能接受,或者不用。
认知主权鸿沟的本质是:绝大多数人正在失去对"自己应该如何思考"的控制权。
四、教育体系的结构性困境
4.1 传统教育培养的"认知能力"正在贬值
过去 200 年,教育体系的核心目标是什么?知识传递。
老师掌握知识,学生接收知识。考试检验的是学生"记住了多少"。
这个体系在 AI 时代面临根本性挑战:如果 AI 可以在几秒内输出比大多数老师更全面的知识,那么"记住知识"这件事的价值就归零了。
但教育体系的调整速度远远落后于技术变革的速度。大多数学校仍然在用 20 世纪的考试方式,评估学生 21 世纪需要的能力。
更深层的问题:教育体系本身也是认知鸿沟的制造者。 富裕家庭的学校已经开始教学生"如何与 AI 协作"、"如何验证 AI 输出"。而贫困地区的学校可能连基本的信息技术课程都没有。
4.2 批判性思维教育的空洞化
很多人说"教育应该培养批判性思维"。这话对,但太空了。
批判性思维不是一门可以"教完"的课。它是一种需要长期训练、不断实践的认知习惯。而训练批判性思维的前提是:你需要有足够的领域知识来做判断。
一个不懂医学的人,无法对 AI 的医疗建议进行批判性思考。一个不懂经济学的人,无法对 AI 的市场分析进行批判性思考。
教育体系面临一个两难困境:
- 如果不教领域知识,学生就没有判断 AI 的基础
- 如果花大量时间教领域知识,等学生毕业时,这些知识可能已经过时
4.3 "认知阶层"的制度化风险
arXiv 论文《认知阶层》提出了一个令人不安的预测:AI 系统不是在弥合认知差距,而是在将其固化和制度化。未来社会将分化为三类人:
- 认知领主:直接塑造 AI 认知框架的人(模型训练者、对齐工程师、政策制定者)
- 认知公民:能有效使用 AI 但无法影响其底层逻辑的人
- 认知附庸:被动接受 AI 输出、丧失独立判断能力的人
这个分层不是基于财富或出身,而是基于认知能力。但认知能力与教育、文化资本、家庭背景高度相关,所以它最终会与其他社会不平等相互强化。
最危险的不是鸿沟本身,而是鸿沟的制度化。
五、决策权的转移:从人类到模型
5.1 "人在回路中"的幻觉
AI 行业有一个流行词叫"Human in the Loop"(HITL)——意思是所有关键决策都有人类参与。
听起来很安全。但现实要复杂得多。
想象一个 HR 场景:AI 筛选了 1000 份简历,推荐了 50 份给 HR 经理。HR 经理最终从 50 人中录用了 10 人。
表面上看,人类在做最终决策。但实际上,AI 已经在第一步完成了最重要的筛选——它决定了哪些人有机会被看到,哪些人连被看到的机会都没有。
HR 经理可能会觉得自己在做决策,但实际上,他的决策空间已经被 AI 大幅压缩了。他只是在 AI 划定的范围内做选择。
这种"人在回路中"的幻觉在越来越多场景中上演:医生依赖 AI 辅助诊断、法官使用 AI 量刑建议、银行使用 AI 信用评估。
人类以为自己保留了决策权,实际上只保留了"在 AI 给出的选项中选择"的权利。
5.2 决策的五个等级
决策领域的 AI 渗透可以用自动驾驶的等级来类比:
- L0:人类独立决策
- L1:AI 提供信息,人类独立决策
- L2:AI 分析并推荐,人类有选择地采纳
- L3:AI 分析并推荐,人类默认采纳,偶尔否决
- L4:AI 决策,人类事后审核
- L5:AI 完全决策,人类被排除
目前,大多数企业和社会系统处于 L2-L3 之间。但演进速度远超大多数人的预期。
5.3 决策权转移的政治含义
当决策权从"人类制度"向"模型系统"转移时,一个根本性的问题出现了:民主制度的前提是"人可以参与决策"。如果决策实际上是由模型做出的,那么民主还剩下什么?
这不是科幻想象。2025 年,多个国家的政府部门已经开始使用 AI 进行政策分析、预算分配和风险评估。
核心矛盾在于:AI 的决策逻辑是不透明的(黑箱),但民主制度的合法性依赖于透明和问责。
如果公民不知道 AI 是如何做出某个政策建议的,他们就无法质疑它。如果他们无法质疑它,他们就失去了参与决策的能力。如果他们失去了参与决策的能力,民主就变成了空壳。
六、如何应对认知鸿沟
6.1 个人层面:重建元认知
应对认知鸿沟的底层能力是元认知——即"对自己思考过程的觉察和控制"。
在 AI 时代,元认知的具体表现是:
- 在接受 AI 输出之前,先问"我怎么知道这是对的?"
- 在使用 AI 辅助决策时,问"AI 的推荐基于什么假设?"
- 定期反思"我是不是过度依赖 AI 了?我自己还有独立判断的能力吗?"
6.2 制度层面:认识论透明化
要弥合认知鸿沟,需要推动以下制度变革:
- 模型透明度要求:披露训练数据的基本构成、RLHF 的标准、安全策略的核心原则
- 认知审计机制:独立的第三方机构应该能够审计模型的认知偏见和价值取向
- 用户认知主权:用户应该有权选择不同的"认知框架"
6.3 教育层面:从"知识传递"到"认知能力建设"
教育体系需要根本性转型:
- 从"记住知识"到"评估知识来源"
- 从"回答问题"到"提出好问题"
- 从"独立完成"到"与 AI 协作并审查 AI 的输出"
6.4 技术层面:开源与多元
认知寡头的风险需要通过技术多元化来对冲:
- 支持开源大模型的发展,避免知识生产被少数公司垄断
- 支持多语言 AI 的发展,避免非英语世界被排除在外
- 支持"可解释 AI"(XAI)的研究
终章:认知鸿沟是 AI 时代最大的不平等
工业革命制造了财富鸿沟。信息革命制造了数字鸿沟。AI 革命正在制造认知鸿沟。
但认知鸿沟与前两者有一个根本区别:财富鸿沟和数字鸿沟是可见的——你看得见谁富谁穷、谁有电脑谁没有。认知鸿沟是不可见的——每个人都觉得自己在"用 AI",但没有人意识到自己正在把思考的权利让渡给一个不可审查的黑箱。
这意味着:认知鸿沟可能成为人类历史上最难被发现、最难被承认、也最难被弥合的不平等。
因为在认知鸿沟的世界里,被剥夺者不会感到愤怒——他们甚至不知道自己被剥夺了什么。
你的知识不再属于你。你的判断不再属于你。你的决策不再属于你。但你觉得一切都还好。
这才是认知鸿沟真正可怕的地方。
雨轩于听雨轩 🌧️🏠
主要参考来源:
- Cognitive Castes: Artificial Intelligence, Epistemic Inequality, and Democratic Institutions (arXiv, 2025)
- Artificial Truth: Algorithmic Power, Epistemic Authority, and the Reconfiguration of Truth Regimes (MDPI, 2025)
- AI, Sovereignty, and the Reshaping of Knowledge Production (ANPOR, 2025)
- Who owns the future? AI, digital sovereignty, and the politics of knowledge (Springer, 2025)
- Stanford HAI: Closing the Digital Divide in AI (2025)
- UNICEF: AI divide — A new fault line we cannot ignore (2025)
- Epistemic Injustice in and through AI (ResearchGate, 2024)
- McKinsey: Dependency and Depopulation (2025)
- Knowledge Sovereignty in the AI Era (Scale and Virtue, 2025)