作者 | 邵 青 教育管理学博士、旅美学者、企业家
在 2026 年世界经济论坛(达沃斯论坛)上,历史学家、《人类简史》作者尤瓦尔·赫拉利并未像多数演讲者那样讨论算力、模型或产业应用,而是从人类文明的自我理解出发,提出了人工智能带来的四个根本性问题。
他提出:1. 人工智能正在从“工具”演变为“代理”;2. 当AI掌握并重组人类全部经典文本后,可能主导法律等语言系统;3. 人类正在丧失对自身的定义权,从叙事主体沦为观察者;4. 痛觉、恐惧、爱等非语言体验,或将成为人类区别于 AI 的最后防线。
图片来源网络
这并不是一份技术路线图示,而是一份文明预警清单。问题不在于这些判断是否“精确预测未来”,而在于它们揭示了人类正在何处感到不安,以及这种不安是否真正指向了风险的根源。
赫拉利的这四个问题,在“风险感知”层面高度准确,却在“机制判断”上存在明显偏差。虽然他敏锐地捕捉到一个事实:人类第一次面对一种可能在认知与行动层面同时扩展的非人主体。但与此同时,他的论述也存在一个内在倾向:高估了语言-叙事系统的决定性因素,低估了工程、制度与责任结构的反制能力。
因此,这四个判断更像是一种文明焦虑的放大叙述,而非风险路径的完整图景。
将 AI 描述为从“工具”升级为“自主代理”,赫拉利的第一个判断是人类将首次失去对工具的最终控制权,也是四个要点中最贴近现实的一项。
在金融交易、科研流程、系统调度乃至军事模拟中,人类确实开始让 AI 替代人的行动,而不只是替代人的计算。这应该意味着:
1. 行为后果被系统性放大;
2. 决策路径不再完全可追溯;
3. 人类对过程的理解能力开始全面落后于系统复杂度。
这里需要严格区分的是:“代理化”并不自动等同于“失控”。AI 的目标函数、算力边界、接口权限与责任归属,仍然由人类设定。真正的风险并非工具获得自主性,而是人类在享受效率红利的同时,逐步放弃对后果的承担。这是一个治理与伦理问题,而非技术反叛。
赫拉利关于“AI 将主导法律等文字系统”的第二个判断,点明了一个现实变化。即在规则比对、先例归纳、条文生成等方面,大模型在语言思维层面的能力已明显超过多数专业人士。
但从“理解文本”到“主宰制度”,中间隔着一道关键鸿沟。事实上,法律并非因解释能力而成立,而是因为它背后有强制执行、责任追究、合法性来源和代价承担机制。
AI 可以成为制度的“极端高效镜像”,暴露矛盾、优化规则,但它无法成为责任主体。只要责任仍需由人类承担,制度主权就不可能完全让渡给算法。
“人类被重新命名为观察者”的说法,是赫拉利的第三个判断。这个判断,在哲学上极具冲击力,但在现实中则未必成立。其实,AI 并没有剥夺人类的主体地位。恰恰相反,许多场景中,一般都是人类主动选择退居幕后。具体表现在:
1. 将选择权交给推荐算法;
2. 将判断权交给自动系统;
3. 将风险判断交给模型评判。
这不是被规则认定,而是人类自身被便利所诱导的让渡。其实,只要最终后果仍需由人类承担,人类就仍然是不可替代的行动主体和责任主体。
将痛觉、恐惧、爱情等非语言体验视为人类区别于 AI 的最终价值是赫拉利的第四个判断,它看似深刻,实则保守。
事实上,文明从来不是靠“体验独占”维系的,而是靠制度设计、责任结构与公共理性的持续建构。如果人类只能在情感与感受中确认自身价值,那就意味着理性、治理与公共决策领域已被默许让渡。显然,这不是胜利条件,而是一种防守性的文明退却。
如果要用一句话总结赫拉利这次发言的意义,那就是:他并非在判断 AI 会变成什么,而是在追问一个根本问题。当智能开始替代人的行动,人类是否仍愿意为选择承担责任。
AI 带来的最大风险,或许不是人类失去控制权,而是在人类主动让渡决策、逃避责任之后,文明机制将不可避免地出现系统性空心化。
对于人类,真正需要守住的,显然不是“最后的体验”,而是人类继续作为制度设计者与责任承担者的主体意愿。这或许也是 AI 时代最关键的文明命题。
邵 青
教育管理学博士,生物医学与生物制药领域专家。旅美学者、企业家,苇草智酷创始合伙人,博腾股份股东及战略投资顾问,莫干山研究院专家咨询委员会委员、副院长,美国希望基金会常任董事。