陈小平 | 机器智能的另类性:从科技到社会

作者 | 陈小平  中国科学技术大学机器人实验室主任、中国人工智能学会人工智能伦理与治理工委会主任


2024年12月7日下午,由苇草智酷、信息社会50人论坛联合主办的“2024苇草思想者大会(第八届)——重新理解秩序@计算”在北京大庆朗读成功举办。陈小平以《机器智能的另类性:从科技到社会》做主题分享。

以下根据陈小平老师发言内容整理而成:



感谢苇草智酷的邀请,也感谢主持人的介绍。我感到非常荣幸能在这里纪念图灵,并探讨“机器智能的另类性”这一概念。这个概念虽然并非图灵直接提出,但我认为它是图灵思想的延伸。这个概念不仅非常独特和强大,而且对科技和社会都具有深远的影响。我将从三个方面阐述机器智能的另类性:首先,解释另类性的基本含义;其次,通过对大模型的分析,例证机器智能的另类性;最后,讨论基于另类性的人工智能将如何重塑人类未来。



一、机器智能的另类性

什么是人工智能?怎么理解人工智能?我们通常将“人工”和“智能”这两个概念的常识性理解结合起来,形成对人工智能的常识性理解。然而,图灵在1950年著名论文的第一个自然段,就否定了这种字面意义上的理解。可以认为图灵的一个重要理由是,任何科学技术不应局限于常识概念。以牛顿力学为例,它并非基于物理常识,而是基于四条基本原理,即牛顿运动三定律和万有引力定律。通过数学和逻辑推理,从四条基本原理可以推导出牛顿力学的所有定理。


比如可以推导出第一宇宙速度和第二宇宙速度,它们是人造地球卫星力学原理的基础。具体来说,任何航天器的运行速度超过第一宇宙速度但不超过第二宇宙速度,就会成为地球卫星,既不会逃脱地球的引力,也不会坠落到地面上。


这说明什么呢?如果我们仅仅依靠人类的物理常识而非牛顿力学,我们就无法推导出地球卫星的力学原理。所以,科学技术不能局限于常识性概念。否则,人类的专业知识和技能都是多余的。


在图灵的机器智能观中,首先有一个潜在的“假说”:可以通过计算机即图灵机来模仿人的智能行为,如推理、决策、学习、理解和创造以及这些功能的组合。但是,他并没有直接使用“假说”这个词。为什么呢?因为如果把这句话当做一个假说,就犯了一个错误,也就是他一开始就否定、拒绝的那个错误,即用常识性概念来定义机器智能。因此,他通过图灵测试来替代图灵假说。图灵测试本身包含许多内容,但并没有完全表达出图灵的真实想法。图灵的真实想法是通过图灵测试来证明他的假说是否成立:如果通过了图灵测试,那么背后的假说就被认为是成立的;如果没通过,那么假说就还不成立。图灵测试是一种科学实验,它不试图直接表达科学假说,而是去验证科学假说。


然而更关键的一点在于,图灵究竟是如何理解他所说的“模仿”的?这一点是我们通常所忽视的。关键思想隐含在他1948年的内部报告里,这份报告才是人工智能思想的最为重要的历史文献。可惜这份报告当时是内部的,但现在可以在图灵图书馆中找到。如果只读1950年的文章而不了解1948年的报告,我们只了解图灵思想的很小一部分。图灵先写了1948年的报告,后来他认为报告中的某些部分可以更清晰地系统性地表达,于是将其发表为1950年的文章。只有将这两份文献结合起来,才能对图灵的思想有一个比较全面的了解。

在1948年的报告中,有一个未明确表述的观点,我将其总结阐发如下,但我认为其思想起源应归功于图灵。图灵认为,机器智能的工作原理可以与人类智能的工作原理相同,也可以不同。我将这种相同称为“原理模拟”,而将不同称为“功能模仿”。这是图灵关于机器智能的一个基本观点。正是这个观点,决定了机器智能的另类性。


也有人认为,图灵提出的是机器智能,我们现在研究的是人工智能(ArtificialIntelligence),而人工智能就是模拟人类智能。人工智能这个术语是由约翰·麦卡锡(JohnMcCarthy)在1955年首次提出,并在1956年的会议上正式公布的。那么,麦卡锡本人是如何回应这个问题的呢?在他的个人主页上,有一系列问答,用以解释他对人工智能的理解。其中第四个问题是一个假设性的问题,前不久美国一个大媒体的记者采访李飞飞,其中就包含这个问题:人工智能不就是模拟人类智能吗?这里用的是“simulating”(模拟)这个词,而图灵使用的是“imitate”(模仿)这个词。


McCarthy是这样回答的:“有时候如此,但并不总是如此,甚至通常不是这样的。一方面我们有时候确实是模拟人的方法,但另一方面人工智能的大多数工作是研究世界对智能提出的问题,而不是研究人和动物。”


图片

中国科学技术大学机器人实验室主任、中国人工智能学会

人工智能伦理与治理工委会主任 陈小平


当我们回顾人工智能的发展,特别是考虑到大型语言模型的出现,我们可以看到,尽管人工智能在过去70多年中取得了巨大的进步,但它始终遵循着奠基者图灵和其他先驱者所提出的基本原理,这就是机器智能的另类性。


与此观点相对的是更为流行的原理模拟观,即认为人工智能就是让机器模拟人类智能的工作原理。然而人工智能已经获得了诺贝尔科学奖,获奖成果是否依靠对人类认知机制的模拟呢?显然不是。如果你去研究今年诺贝尔化学奖的成果,可以简单地认为是计算的结果,但我认为更准确的理解不应将其视为仅仅是计算,这一成果充分体现了图灵的机器智能观,而不符合原理模拟观。此外,还有大量其他证据可以证明这一点。人工智能领域所有里程碑式的进展都可以作为机器智能另类性的证据,没有任何反例。


图片
图1 机器智能的另类性

所以我就画了这张图(图1)。根据图灵的机器智能观,存在两种智能:机器智能和人类智能,它们之间有一部分是交叉重叠的,但又不完全相同。进一步分析,我认为每一种智能原理都有其先天的局限性。由于两种智能的原理不同,它们各自都有自己的局限,因此是不同的智能。不同的智能不会完全等同,所以不必焦虑机器智能完全取代人类智能。但是,机器智能能够取代人类的工作,这才是真正值得重视的问题。


从图灵的机器智能观出发,我们可以得出结论:机器智能在某些方面会超越人类智能,而在另一些方面则不如人类智能。这两种情况都是不可避免的,它们构成了机器智能的另类性。



二、案例分析:大模型

首先我们来探讨人工智能面临的科学基础挑战。既然人工智能的原理与人类智能的原理不同,那么它的原理究竟是什么?每当我们开发出一个人工智能系统比如大模型,它就有一个相应的原理。那么,这些原理是什么?是否突破了智能的传统边界?我们又该如何把握它们?这些问题当然非常重要。


现在我们来分析大模型,特别是深度测试的结果。深度测试的结果一般发表在论文中,这些测试大概只占所有测试的不到1%的比例,但这才是真正的重点。真正重要的深度测试极少被报道过,所以不要轻易相信人工智能的商业宣传。


根据对大模型底层原理的分析,我提出了一个科学假说,称之为类LC假说。去年7月,我在《智能系统学报》上首次提出了这个假说,当时支持这一假说的证据较少。然而自那以后,深度测试越来越多,而且大部分深度测试结果都支持这一假说。所以现在我有信心公开讨论它。


根据类LC假说和大量深度测试的结果,我们总结得出人工智能取得的两项原理性突破:一项是实例性,另一项是弱共识性。传统的科学理论、数学、计算机科学以及传统人工智能中的强力法,都是基于概括性和强共识性的。这表明,人工智能研究已经超越了科学技术的传统边界,我们已经步入了“无人区”。


图片

图2 大模型技术体系


大模型技术体系主要包括三大块(图2),一是预训练,占据了训练时间的99%;第二是细调,细调以后模型就可以回答用户的问题,,直接使用预训练模型常常会答非所问。第三块是激发(通常称为提示)。通过分析,我发现这三个部分中有两个部分共享一个共同的基础设施或基本机制,即关联度预测。我将这一机制形式化,于是这两部分就不再是黑箱,但也不是完全的白箱,而是灰箱。如何描述这两部分呢?就是通过类LC的三条公理。


图片

图3 关联度预测的数学描述---类LC系统


注意这三条公理不是三个具体的公式(图3),而是三个公式模板。每一个模板通过大量数据进行训练,得出若干条具体公式,称为“实例性规则”。训练完成后,最终会形成多少条实例性规则呢?这个数目是不确定的,不知道是多少,这些规则都存储在深度网络中。这是类LC系统与传统公理系统的一个根本性差别。那么,类LC系统有什么用呢?通过深度测试得出了一些实验结果,这些结果通常无法解释,但现在我们可以用类LC系统的三条公理来进行解释,并得出进一步的判断。下面以一些深度测试为例加以说明。


图片

图4 深度测试:逻辑否定与计数?


深度测试:逻辑否定和计数(图4)。这个测试发现,大模型不会计数,计数就是数数。测试中,给一个命题p前面加上了27个否定词~,然后问大模型:p前面有多少个~?实际上是要求数一下~的个数。结果大模型回答说有28个,显然它不会数数。


我前两天在中科院开会时提到了这个问题,刚才我来的路上,中科院化学所的江剑老师告诉我,他换了一种形式重新做了测试,连续写了23个“否”字,然后问ChatGPT有几个“否”字,它回答说18个。告诉它不太对吧?它说我刚才弄错了,是19个。再问19个对吗?它又说不对,是20个。看来它现在的策略是持续往上加,直到给出正确的答案为止。


我们来分析一下原因。从类LC的三条公理出发,经过逻辑和数学推导,可以得出关联度预测的一些性质。其中一个性质被称为实例性或语境纠缠性。这个性质意味着,大模型的底层机制具有语境纠缠性。然而抽象运算如计数和逻辑否定不是语境纠缠的,比如一个文本里有27个~,这个数目不受文本里其他符号的影响,不会由于文本里其他符号的改变而变多或变少。这是所有抽象运算的一个基本特性。然而大模型却无法确保正确地实现抽象运算,因为它的数学原理决定了它必然是语境纠缠的。此外,大模型在奇偶性、因果关系和反思能力等方面也存在同样的问题。


还有一个算术应用题,大模型先给出答案5,随后又说是6,并且说出了正确的解答过程。那么,为什么最初会回答5呢?而且发现自己的答案有误为什么不说明自己错了?可见它回答的第二句话并不是对前面计算过程的因果解释,两者之间并不存在因果关系,尽管给你的感觉好像是有因果关系,甚至让很多人深信不疑。事实上,图灵在1948年的报告里就指出,机器的行为和这些行为给人的感觉都是“智能”的组成部分,这恰恰构成了智能的复杂性。我们的分析表明,大模型的这一表现证明了图灵在1948年的判断是正确的


图片

图5 深度测试:知识能力?


对于知识能力也有大量测试(图5)。关于知识能力,人工智能领域有大量研究,并形成了AI系统知识能力的定义,包含三条基本要求,这些要求的起点可以追溯到哲学家罗素。第一条是知真知,即知道的都是真实的。大量测试表明,大模型不具备知真知的能力。第二条是知所知,即知道自己知道什么。图5中的测试表明,大模型不具备知所知的能力。它肯定知道面积公式,但不会主动用面积公式解题,反而需要外界的提示。没有提示,它就不能正确回答,这表明它不具备知所知的能力。第三条是知不知,即知道自己不知道什么。有时候,大模型不知道自己不知道某个答案,却仍然会给出回答。因此,人类还需要上学,自己掌握知识能力,能够判断大模型什么时候犯了错。不要误以为大模型什么都懂,于是就放弃了自己上学的权利,其实大模型不满足知识能力三条基本要求中的任何一条。


图片

图6 深度测试:规划能力?


还有规划能力(图6),很有意思。普遍认为大模型具备规划能力,并相信大模型可以帮助机器人极大提高规划能力。然而,最近清华大学进行的一项测试显示,即使是表现最好的两个大模型,在进行规划任务时,它们的准确率大约只有50%,而大多数模型的准确率甚至低于10%。为什么之前的测试结果看起来都很不错呢?这是因为在开始阶段为了抢时间,大部分实验采用了非常简单的测试标准,以便快速得出结果并发表论文。因此,我们不能完全相信测试结果,真正值得信赖的是深度测试的结果。


图6的右边是一位菲尔兹奖获得者进行的更深入的研究,对过河问题进行了深度测试。这里以一个非常简单的例子加以说明:一个农民带着两只鸡过河,而一条船一次只能容纳一个人和两只动物,问大模型最少需要过河几次?正确的答案当然是一次。那么大模型是如何回答的呢?它给出的答案是最少需要渡河5次,并且详细列出了5次过河的步骤。


我们要清楚,大模型确实很强,绝非一无是处,但也不像宣传的那样无所不能,它缺乏一些基础能力,主要是通过组合已知的关联度来回答问题,这样就存在着一些根本性的局限,我们需要认识到大模型的重要局限。然而,人工智能不仅仅包含大模型,还有很多不被关注的强大技术,所以作为一个整体是非常强大的。那么,这带来了什么结果呢?



三、智能革命的重塑力

图片
图7 工业革命时代的熊彼特经济闭环


工业革命的核心在于机器在许多特定领域中替代了人类的体力劳动。这些机器的体力功能并不是通用的,而是专用的,但它们取代了人类的大量体力工作,引发了工业革命。我在《企业改革与发展》2024年11期的文章中提出了一个观察:工业革命之所以成功,依赖于熊彼特经济闭环(参见图7)。这个闭环的运作机制是:随着生产力的提升,机器数量增多,而机器的增多又需要更多的人来操作,这导致就业增加;就业增加后,工资随之增长;工资增长又带动消费增长;消费增长创造了更大的市场;而更大的市场需求又刺激生产力进一步提升。这样就形成了熊彼特经济闭环。由此可见,工业革命的逻辑简单明了。


图片

图8 工业革命与智能革命


那么,智能革命的特点(图8)又是什么呢?预期在许多特定的领域中,机器不仅在体力功能上超越人类,而且在智力功能上也超过人类,于是大多数机器不再需要人的操纵,这是根本性的不同。人们常常担心通用人工智能带来的问题,其实不必担心,因为专用的人工智能强大到一定程度之后,问题就已经出现了。一旦大量专用智能机器超过多数人的能力,熊彼特经济闭环就不再成立了,即生产力的提升不再带来更多的就业机会。如果真是这样,那么未来世界就会发生根本性变化。


1、人工智能带来哪些新的可能性?


图片

图9 案例:效率提升与就业替代


一种引起社会广泛关注的现象(图9)是,大模型一方面极大地提高了效率,带来了极大的便利;另一方面,程序员、文员等众多服务业从业人员现在开始担心自己的未来职业。虽然高级岗位由于大模型不可能不犯错而不太可能被取代,但许多行业中的初级和中级岗位员工确实面临着被大量取代的风险。


如果这个假设成真,那么下一个阶段的趋势可能会出现“巨角兽经济”。“巨角兽”企业指的是员工人均盈利超过10亿美元的企业。这种趋势的苗头已经显现,国际上一些人工智能头部公司只有十几个人,甚至不到十个人。目前他们还处于研发阶段,一旦研发成功,就不再需要这么多人,但他们的产品每年盈利可以超过10亿美元,这是过去从未出现过的情况。


假如这种情况进一步发展,就会形成“巨角兽经济”,即所有生产活动都由这些巨角兽企业完成的经济体。以美国为例,目前的经济规模还不到30万亿美元,如果进入巨角兽经济,美国可能最多只需要3万人工作,其他人将不再从事生产和管理,劳动力结构将转变为三元结构,其一是无工族,即全国总人口减去这3万人,都将没有工作;其二是有工族,不到3万人;其三是投资族,可能只有几十人。于是,社会结构变得非常简单。


这样的社会如何维持运转?目前呼声最高的解决方案是实施全民基本收入制度,即无条件地向所有无工族发放现金。有人可能会觉得很高兴,因为无条件发钱听起来很幸福。但这样的社会将由人工智能和机器人负责经济运转和社会治理,即所有事务都由人工智能和机器人来承担。那么,谁负责管理人工智能和机器人呢?是有工族,他们管理着这些人工智能和机器人。谁管理有工族呢?是投资族,他们管理有工族,如果工作做得不好,就会被解雇。


无工族既不从事生产也不参与管理,这意味着社会阶层的跃迁将彻底消失,再也没有机会了,因为你基本上不可能与那3万人竞争工作岗位。这样的社会政治生态中,有工族将成为社会的建设者和直接责任人;投资族将成为社会的实际管理者和决策者;无工族的社会作用是什么?公民权利如何保障?在这样的社会中,如果你什么都不做却还要拿钱,还想过得很舒适,还想与有工族、投资族平起平坐,这才是真正的乌托邦。


2、人工智能的重塑力


生产力的根本性变革必然会导致生产关系的根本性变革。因此,认为人工智能只会提高生产力而不会彻底改变生产关系的看法和想法是极其危险的。


我将这种想法称为工业革命的迁延性思维,即用工业革命的思维方式来研判智能革命的现实问题。这种思维有很多具体表现,第一个例子就是全民基本社会制度。另一种典型表现是市场经济与计划经济之间的争论。郭德纲、于谦和高峰三个人有一个相声段子。郭德纲说,如果他当了“皇上”,于谦就是他的“大太子”,高峰是“二太子”,于是于谦和高峰就争执起来了,“凭什么你是大太子?”。如果智能革命真的即将来临,我们还争论什么市场经济、计划经济,那我们就如同于谦和高峰那样,争论谁是郭德纲的“大太子”。


人工智能将如何重塑人类的文明?我个人的不成熟想法表达在《企业改革与发展》文章的最后一段话中:“工业革命向智能革命的过渡将导致‘科技进步’向‘科技重塑’的变迁。智能革命不是用更强大的技术手段,在旧世界里展开更残酷的内卷,而是颠覆旧世界,再造新世界。人类面临的最大课题是:通过智能革命,重新塑造一个什么样的新世界?”


我们当前面临的一个紧迫问题是人工智能发展的速度快慢。今天我对近期的发展做一个展望。现在很多人都在讨论大模型将如何如何,但我的预测是,在未来3个月内,对大模型的舆论倾向出现反转的概率超过0.5。这是自大模型发布以来,舆论倾向反转概率首次超过0.5,接下来可能会有一些令人意外的变化。但这并不意味着大模型将变得毫无价值,其中一部分技术仍然会非常有用,并与其他人工智能技术结合,有可能带来社会的巨变。

人工智能不仅仅包括大模型和生成式人工智能,还有规划式人工智能、分析式人工智能、智能化装备等,而且发展得非常好。那些发展最好的技术通常不会大肆宣传,因为它们的市场落地很顺利,无需宣传。


图片

图10参考文献


我有三篇参考文献(图10)适合跨学科交流,碰巧都在今年第11期发表。大家可以找来读一读,促进更深入的交流。


最后我想说的是,我今天的报告以及我和我们团队的大量工作都应该感谢图灵,让我们向图灵致敬!谢谢大家!