“AGI不会在2025年出现”,Gary Marcus对AI的25大预测!

全文2985字,阅读约需9分钟,帮我划重点

划重点

01纽约大学心理学与神经科学荣誉教授Gary Marcus对2025年AI发展做出了25项预测,涵盖技术、商业、监管等多方面。

02Marcus预测2025年不会看到AGI的出现,但可能实现部分任务的可靠解决。

03然而,他预测AI模型带来的利润仍将微不足道,甚至不存在。

04此外,AI安全机构在面对真正危险的模型时缺乏法律约束力。

05Marcus还预测,到2025年底,没有任何单一系统能够解决超过4项“2027年Marcus-Brundage AI任务”。

以上内容由腾讯混元大模型生成,仅供参考

Gary Marcus,一位集科学家、畅销书作家和企业家多重身份于一身的人工智能领域“叛逆者”,也是纽约大学心理学与神经科学荣誉教授。一直以来,他以独特视角和犀利言辞直面AI发展中的机遇与挑战,聚焦技术的潜力与局限,引发业内外的广泛讨论。近日,他对2025年AI发展做出了25项预测,内容涵盖技术、商业、监管等多方面,为行业发展提供了独到见解和深刻反思。

作者 | Gary Marcus       责编 | 苏宓
出品 | CSDN(ID:CSDNnews)

图片

回顾过去

近些年来,我每年都会对AI的发展进行一波预测,总体来说,尽管有一些细微差异,但预测方向基本上是准确的。

这是我在2024年3月10日的发布的一条推文,对2024年AI发展进行了预测:

图片

除了 OpenAI 的 o3 可能需要额外做一下备注(因为它是在2024年12月对外宣布的,但尚未完全发布或经受广大用户的使用与验证),其余七项预测基本上都非常准确。

我们目前仍然被类似 GPT-4 的模型包围,这些模型只做了些许改进,OpenAI 自己也不认为有任何模型达到了GPT-5的水平。市面上此类模型数量众多,价格战愈演愈烈,但几乎没有技术壁垒。模型生成错误(即“幻觉”)的问题依旧无解。企业的实际应用远不如预期,除了像英伟达这样的硬件公司(主要靠芯片获利)外,其他公司的整体利润相当有限。事实上,多数相关公司仍在亏损,至少三家公司以较低收益处于被准收购状态,对投资者来说几乎没有回报。

2024年人工智能的最重要时刻,并不是外界翘首以盼的GPT-5 发布——因为它根本没有发布,尽管全年都有粉丝预测它会出现。

其他预测

  • 早在2022年,我就提出过纯粹依靠扩大模型规模(即“扩展定律”)最终会遇到瓶颈的观点。到了2024年11月和12月,许多行业人士的评论验证了这一点。

  • 我在2022年提出一个观点:“扩展定律”并不是物理定律,而只是有限生命的经验法则。这一论点在近几个月内得到了广泛传播。

  • 我在2022年首次提出AI技术可能“遇到瓶颈”的说法,这个观点如今广为传播,包括在 CNN、《The Verge》和《华尔街日报》中都有类似报道。

  • 在2022年以及2001年的书《代数思维》中提到的问题(如组合性、事实性、推理能力等)依然没有得到解决。虽然这些问题在未来或许能被攻克,但现有技术显然还不够。

  • 我从1998年、1999年、2001 年以及此后一直强调的分布转移问题,在最近的一些研究中被多次提及,比如苹果关于推理能力的那篇重要论文(https://garymarcus.substack.com/p/llms-dont-do-formal-reasoning-and)。

  • 我在2022年12月预测的聊天机器人引发死亡事件,在2023年不幸得到验证,2024年也出现了类似事件。

  • 虽然AI生成的虚假信息越来越多,但其影响目前比我担心的要小。然而,这仍是一个值得保持警惕的问题。

  • 我在2023年2月警告生成式 AI 会污染互联网,这一预测越来越被证明是正确的。

  • 我在2022年11月预测,大语言模型不会立即显著提升像 Alexa 这样的商业 AI 助手,这一预测在2024年继续成立。

  • 我曾预测2024年会被视为“AI幻灭年”,虽然这个说法有些夸张,但部分人确实表达了失望,比如《华尔街日报》文章《微软AI机器人的早期用户质疑其是否值得投入》。

  • 我在2023年的预测曾提到,OpenAI可能会被视为AI领域的WeWork,这一预测尚未得到验证,但该公司仍面临诸多挑战。尽管估值颇高,OpenAI尚未实现盈利,预计至少到2029年才可能盈利,但目前每年仍消耗数十亿美元,并且仍缺乏明确的技术护城河。从长远来看,尤其是在高估值情况下,其安全性和稳定性并不明朗。此外,包括记者埃德·齐特伦(Ed Zitron)和经济学家布拉德·德隆(Brad DeLong)在内的许多人,也开始表达类似观点。

  • 我对生成式AI在技术和经济方面的局限性的预测基本上是准确的,但在投资者方面我完全判断错误。我原以为OpenAI不会再获得一轮大规模融资,更不用说估值超过1500亿美元的融资。至于这次融资是否是明智之举,时间会给出答案。

  • 在2023年2月Sora发布后,我指出其物理学相关问题可能无法解决,这一预测仍然成立。

  • 我在2022年12月关于GPT-4的七项预测大多已经验证(第七项仍在等待),这适用于2024年发布的所有模型。

图片


图片

2025年的25个预测

与埃隆·马斯克在2024年4月的预测相比(他认为到2025年底“我们可能会拥有比任何人类都聪明的AI”),以下是我对今年年底AI发展状况的预测:

图片

高确定性预测

1.今年我们不会看到AGI的出现,尽管埃隆·马斯克 此前声称可能会出现。(同时,人们仍会试图通过模糊定义,甚至用金融术语而非科学术语来重新定义通用人工智能。

2.到2025年底,没有任何单一系统能够解决超过4项“2027年Marcus-Brundage AI任务”(https://garymarcus.substack.com/p/where-will-ai-be-at-the-end-of-2027?r=8tdk6)。如果到年底没有任何任务被可靠地解决,我也不会感到意外。

3. AI模型带来的利润仍将微不足道,甚至不存在。(不过,芯片制造公司在为构建这些模型的公司提供硬件方面将继续表现良好,就像淘金热期间卖铲子的生意一样繁荣。

4. 美国仍然缺乏针对生成式AI风险的有效保护,而欧洲的监管政策将继续成为全球参考。

5. AI安全机构虽然会提供建议,但面对真正危险的模型时缺乏法律约束力。

6. 可靠性的缺乏将继续困扰生成式AI。

7. “幻觉”问题:生成内容不准确的现象仍频繁发生。

8. 推理错误:AI在复杂推理中的问题依旧突出。

9. 2025年,AI代理将持续被炒作,但除了少数特定场景外,整体仍然不可靠。

10. 人形机器人将会受到大肆宣传,但还没有任何产品接近《机器人总动员》里的罗茜机器人那样的能力。运动控制可能进步明显,但环境感知和认知灵活性仍然很差。

11. OpenAI将继续在产品成熟并以可接受价格广泛推广之前,提前数月甚至数年进行产品预览。(例如,Sora在2月份预览,但直到12月才发布,且使用受限;Sal Khan在2024年5月演示的AI导师至今尚未普及;o3虽已预览版发出来,但尚未发布,且可能价格昂贵。

12. 几乎没有放射科医生会被AI取代(与辛顿在2016年的著名预测相反)。

13. 真正的无人驾驶汽车(完全不需要人类监控交通)仍然只会在少数城市中使用,主要集中在西方国家,且通常限于良好天气条件下。人类司机仍将是经济的重要组成部分。

14. 围绕生成式AI的版权诉讼将在2025年继续。

15. AI的能源消耗会继续增加,但大部分公司仍不会透明披露其使用情况。

16. 被AI完全替代的工作不会超过10%,甚至可能不到5%。受到最大影响的职业包括商业艺术家和配音演员。

17. 我之前在o3宣布前夕做出的三个预测:

图片

中等确定性预测

18. 技术护城河仍将难以形成。相反,美国和中国的模型将趋于高度相似,而欧洲的一些系统也会逐渐赶上这一水平。

19. 由于担心价格以及相对于该价格的稳定性问题,只有少数公司(更少的消费者)会大范围内采用o3。

20. 企业将继续尝试使用AI,但将AI应用于现实世界中的生产级系统的规模化仍将保持谨慎。

21. 2025年很可能是主流AI公司估值开始下滑的一年。(不过,有句名言是,“市场非理性的持续时间可能比你保持偿付能力的时间更长。”)

22. Sora仍将在物理学问题上面临挑战。(谷歌的Veo 2似乎表现更好,但我尚未进行试验,预计状态变化和对象持久性问题仍可能存在;一个尚未完全发布的混合系统Genesis,基于不同原理,可能值得关注。)

23. 神经符号AI将变得更加重要。

低确定性预测(但值得讨论)

24. 我们很可能会看到一场大规模的网络攻击,其中生成式人工智能将扮演重要的因果角色。

25. 2025年可能仍然没有出现“GPT-5级别”的模型(即社区普遍认为的跨领域、巨大的飞跃)。相反,我们可能会看到像o1这样的模型,在许多可以生成高质量合成数据的任务中表现出色,但在其他领域的进展仅比GPT-4略有改进。