关注我们
大语言模型(LLM)因其在自然语言查询中生成类似人类的回答能力而引起全球关注,这一突破曾被认为是“意识”的证明,并能执行其他节省时间的任务。事实上,许多人认为LLM是通向通用人工智能(GAI)的途径——这是一种假设的状态,计算机在大多数或所有任务中都能达到(甚至超越)人类技能。
通过LLM实现人工智能目标的吸引力,吸引了数十亿美元的投资,尤其是美国和欧洲的大型私人企业在这一目标上引领了方向。然而,LLM也存在已知的缺点,如成本高、能耗大、输出不可靠或出现“幻觉”、推理能力不足等。尽管如此,这些公司在LLM上的投资可能会导致他们在通向GAI的进展上未能达到预期,而在GAI的其他途径上,西方AI开发者可能缺乏快速转向的能力。
与此相对,中国采取了由国家主导的多元化AI发展计划。与美国一样,中国也投资于LLM,但同时也在寻求通向GAI的其他路径,其中一些路径更明确地受到大脑启发。本文依据中国顶级科学家的公开声明、相关研究及中国政府发布的公告,展示了中国多元化的AI发展战略。
2025年2月,美国国家安全与新兴技术中心(Center for Security and Emerging Technology)撰写报告《Chinese Critiques of Large Language Models ,Finding the Path to General Artificial Intelligence》,探讨中国对大型语言模型(LLMs)作为通用人工智能(GAI)路径的批评。(内容翻译略有删减)
引言:生成式AI与通用AI
大语言模型及其批评者
“大语言模型”这一术语包含了两个事实:它们通常是大型网络,包含数十亿到数万亿个参数,且它们是通过自然语言进行训练的,通常使用来自互联网和其他来源的文本数据。LLM和神经网络(NN)在类型上与“传统人工智能”(GOFAI)有所不同,后者依赖基于规则的编码。此外,今天的大型模型在不同程度上能够处理多模态的输入和输出,包括图像、视频和音频等。
中国对LLM作为通向通用AI路径的看法(或非路径)
沈向洋(Shen Xiangyang),微软前执行副总裁,曾任北京大学人工智能研究院学术委员会主任,遗憾地表示,AI研究缺乏“对智能本质的明确理解”。沈向洋支持纽约大学名誉教授和LLM批评者Gary Marcus的观点:“无论ChatGPT如何发展,当前的技术路线都无法带来真正的智能。” 郑庆华(Zheng Qinghua),同济大学校长、中国工程院院士,表示,LLM存在四大缺陷:消耗过多的数据和计算资源,容易发生灾难性遗忘,逻辑推理能力弱,并且无法知道自己错了也不知道为什么错。 李武(Li Wu),北京师范大学认知神经科学与学习国家重点实验室主任,认为:“当前的神经网络相对专门化,并不符合人脑的工作方式。如果盲目炒作大模型本身,只关注将参数从数十亿、数百亿扩展到数千亿,就无法实现真正的智能。”
中国政府对LLM作为通向通用AI路径的支持
学术记录显示的内容
对中国GAI研究的总结
评估:所有路径都能通向“智慧”吗?
管理中国的“先发优势”
2)必须具备自主性(自主性),包括能够生成自己的任务;
3)必须是“价值驱动的”,而不是当前大模型那样的“数据驱动的”。
编译排版:赵杨博
终审:梁正、鲁俊群