福布斯最新预测:2025年AI产业链十大剧变,这些机会别错过

全文7109字,阅读约需21分钟,帮我划重点

划重点

01福布斯预测2025年AI产业链将迎来十大剧变,包括Meta对Llama模型收费、AI数据中心迁往太空等。

02缩放定律在2025年将继续发挥作用,但焦点将从语言模型预训练转向其他数据模态领域。

03由于特朗普与马斯克的关系可能不再持久,AI监管政策可能趋于强硬。

04预计到2025年,网络代理将成为消费级AI的下一款现象级应用。

05此外,首次真实的AI安全事件可能发生在2025年,引发整个社会对AI安全的警醒。

以上内容由腾讯混元大模型生成,仅供参考

(关注公众号并设为🌟标,获取最新人工智能资讯和产品)

图片

「未来已来,只是分布不均」— 威廉·吉布森的这句话,将在2025年的AI领域将被完美诠释。

就在刚刚,福布斯发布了2025年AI产业的最新预测。细读这份报告,我惊讶地发现:那些我们认为"还要很久"的变革,很可能在未来12个月内集中爆发。

Meta即将开始对Llama收费,AI数据中心将迁往太空,首个重大AI安全事件即将发生...这些预测背后,隐藏着一个令人深思的事实:AI产业正在经历一轮前所未有的重构。

对决策者而言,2025年注定是一个充满机遇与挑战的年份。那些能够预判产业变革,并提前布局的企业,将在这轮重构中占得先机。

让我们来解析这十大预测背后的深层机会:

1. Meta 或对 Llama 模型的使用收费

作为全球开放权重 AI 的典范,Meta 的战略路径颇具研究价值。与 OpenAI 和 Google 等竞争对手闭源并收费的策略不同,Meta 一直以来选择免费开放其最先进的 Llama 模型。

然而,明年 Meta 计划开始对部分公司收取 Llama 模型的使用费用,这无疑将令许多人感到意外。

需要强调的是,Meta 并非会将 Llama 模型完全闭源,也不是所有用户都必须付费。

预计 Meta 将对其开源许可证的使用条款增加限制,要求在一定规模以上的商业环境中使用 Llama 模型的企业付费以获得访问权限。

事实上,Meta 已经在某种程度上实施了类似的限制政策——目前,云计算巨头或月活跃用户超过 7 亿的大型公司,已被禁止免费使用 Llama 模型。2023 年,Meta 首席执行官马克·扎克伯格曾表示:“如果像微软、亚马逊或谷歌这样的公司利用Llama进行再销售,我们认为有理由从中分得一部分收入。虽然短期内这不会成为一项主要收入来源,但从长期来看,我们希望这能带来一些回报。”

到了明年,Meta 将显著扩大付费使用 Llama 的企业范围,涵盖更多的大型和中型公司。

Meta 为什么会做出这样的战略调整?

保持大型语言模型(LLM)的技术领先地位需要巨大的投入。如果 Meta 想让 Llama 能够与 OpenAI、Anthropic 等公司的前沿模型保持竞争力,每年都需要投入数十亿美元。

尽管 Meta 是全球最具资金实力的公司之一,但作为一家上市企业,它必须对股东负责。随着前沿模型研发成本不断飙升,让公司继续不计收入地投入巨资开发下一代 Llama 模型,显然已不再现实。

不过,业余玩家、学术研究者、独立开发者以及初创企业仍将在明年享有 Llama 模型的免费使用权。而到了 2025 年,Meta 将正式开启其 Llama 模型的商业化之路。

2. 缩放定律将拓展至文本之外的领域,尤其是机器人技术与生物学

最近,缩放定律是否已触及极限成为了 AI 社区的热门话题。

缩放定律的概念最早由 OpenAI 在 2020 年提出,其核心思想很简单:当 AI 模型的参数规模、训练数据量和计算能力增加时,模型性能(具体来说是测试误差)会以可预测的方式稳定提升。从 GPT-2 到 GPT-4 的性能飞跃,正是得益于缩放定律。

类似于摩尔定律,缩放定律其实并非严格意义上的“定律”,而是基于经验的总结。而近来一些报告显示,大型语言模型的进一步扩展开始遇到回报递减的问题。这也解释了 OpenAI 的 GPT-5 发布为何一再推迟。

面对这种趋势,许多人提出“测试时计算”的概念,为缩放定律提供了新的方向。相比于在训练阶段大幅扩展计算能力,新一代推理模型(如 OpenAI 的 o3)通过推理时的大规模计算,让模型能够“更深度思考”,从而释放全新 AI 能力。

这种观点固然重要,但更值得注意的是,关于缩放定律的讨论至今几乎都局限在语言领域,而语言并非唯一的关键模态。

例如在机器人技术、生物学、世界模型和网络代理等领域,扩展定律尚未达到其潜力的上限。实际上,目前关于这些领域扩展定律的证据尚未被系统验证和发表。

一些初创公司正在这些新模态中开辟类似语言模型的成功之路。例如,生物学领域的 EvolutionaryScale、机器人技术领域的 Physical Intelligence,以及世界模型领域的 World Labs,正试图在这些领域发现并利用扩展定律。

明年,这些领域可能会取得突破性进展。

缩放定律并未走到尽头,它在 2025 年依然将发挥重要作用。只是其焦点将从语言模型的预训练逐步转向其他数据模态领域。

3. 特朗普与马斯克或将“分手”,AI 世界也将迎来连锁反应

美国新一届政府的上任预计会对 AI 政策和战略带来显著调整。如果要预测特朗普领导下 AI 的走向,很多人可能会关注他与埃隆·马斯克的密切关系,毕竟马斯克如今在 AI 领域举足轻重。

在特朗普政府的推动下,马斯克可能通过多种方式影响 AI 的发展。例如,由于他与 OpenAI 的长期对立,新政府可能在行业对话、法规制定和合同分配上对 OpenAI 更加不利。(这一点已成为 OpenAI 的担忧。)相对而言,马斯克旗下的公司可能会得到优待,例如更快速的审批流程帮助 xAI 建设数据中心,或加速特斯拉自动驾驶出租车的部署。

值得一提的是,马斯克不同于其他特朗普顾问,他对 AI 的潜在生存风险持谨慎态度,并提倡加强 AI 监管。他曾公开支持加州争议性的 SB 1047 法案,该法案主张对 AI 开发者施加更严格的约束。在马斯克的推动下,美国的 AI 监管政策可能会趋于强硬。

然而,这种设想有一个明显的漏洞:特朗普与马斯克的关系不太可能持久。

在特朗普的第一任期内,众多曾与他密切合作的盟友最终都分道扬镳——从塞申斯到蒂勒森,再到马蒂斯和班农,甚至连白宫短命的十天通讯主管斯卡拉穆奇也未能幸免。特朗普的执政风格注定让亲密合作关系变得短暂而脆弱。

特朗普和马斯克性格复杂、难以捉摸,合作起来充满挑战。他们的“蜜月期”可能很快结束。我们预测,到 2025 年底,这段关系将会破裂。

这对 AI 世界的影响是显而易见的:

  • 对 OpenAI 来说,这将是个好消息,因为他们可能会摆脱潜在的不利政策。
  • 对特斯拉股东来说,则是坏消息,因为优待政策可能不复存在。
  • 而对于关心 AI 安全的人而言,这无疑令人失望,因为这意味着特朗普政府- - 可能会采取更自由放任的态度,对 AI 监管不再严格。

4. 代理即将普及,或成 AI 消费市场下一款“杀手级应用”

设想一个不必亲自操作网络的未来:无论是管理订阅、缴纳账单、预约医生、在 Amazon 购物,还是预订餐厅,你只需简单告诉 AI 助手,它就能帮你完成所有繁琐的在线任务。

“网络代理”这一概念并非新鲜事。倘若此类产品能够顺利推出并稳定运行,毫无疑问会成为一款极具吸引力的爆款。然而,市场至今仍缺乏功能全面的网络代理。

Adept 曾是该领域备受关注的明星初创企业,凭借一流团队募集了数亿美元资金,但最终未能实现其构想,成为一个典型的“时机不对”案例。

明年,这一局面将发生改变。随着语言和视觉基础模型的持续突破,以及推理时计算和“系统 2 思维”能力的成熟,网络代理终于能以主流产品的姿态出现。(Adept 的理念本身无可挑剔,只是领先于时代。在初创企业的世界中,抓住合适的时机才是制胜关键。)

尽管网络代理有许多企业级应用潜力,但其近期最重要的市场机会将是面向消费者。当前,AI 热潮虽风头正劲,但除 ChatGPT 外,真正进入大众市场的 AI 应用屈指可数。网络代理的到来将彻底改变这一格局,成为消费级 AI 的下一款现象级应用。

5. 将 AI 数据中心搬入太空的计划初现端倪

2023 年,AI 发展的关键瓶颈是 GPU 芯片。而到了 2024 年,这一问题转向了电力和数据中心资源。

随着 AI 数据中心建设热潮的兴起,AI 对能源的巨大需求成为热点话题。全球数据中心的电力需求在停滞多年后,预计将在 2023 至 2026 年间翻番,这主要是 AI 带来的推动力。在美国,数据中心的能源消耗占比预计将从 2022 年的 3% 提升到 2030 年的近 10%。

今天的能源系统远远无法满足人工智能工作负载带来的迅猛需求增长。能源电网与计算基础设施这两个庞大的系统正在逐渐走向一场史无前例的对决。

今年,核能被视为解决这一能源困境的潜在出路之一。核能的确在许多方面是 AI 的理想能源:零碳排放、全天候可用且资源几乎无限。但从现实来看,无论是传统核裂变电站、新一代“小型模块化反应堆”,还是核聚变电站,都需要经过漫长的研究开发和监管流程,因此在 2030 年之前,这些技术难以实质性地缓解当前的能源压力。

图片

明年,一个全新的解决方案可能崭露头角并吸引投资:将 AI 数据中心搬到太空。

乍看之下,“太空数据中心”可能像是风险投资圈的天方夜谭,但这一概念实际上有其独特优势。

地球上建造数据中心的主要瓶颈在于电力供应。而位于轨道上的计算设施可以借助太空中无尽的太阳能,全天候获得零碳能源。

此外,太空环境还能自然解决散热问题。大规模 GPU 同时运行会产生大量热量,而高温可能损坏硬件。在地球上,解决散热问题需要昂贵的液冷技术,而太空的低温环境可以高效、自然地将热量迅速排出。

当然,要实现这一设想仍面临诸多技术挑战。其中一个核心问题是,如何高效地在太空和地球之间传输大量数据。这一问题尚未解决,但基于激光和高带宽光学通信技术的研究进展令人期待。

Y Combinator 孵化的初创企业 Lumen Orbit 最近筹集了 1100 万美元,专注于在太空中建造多千兆瓦规模的数据中心网络,以训练 AI 模型。

Lumen 的首席执行官菲利普·约翰斯顿表示:“与其每年花费 1.4 亿美元购买电力,不如用 1000 万美元发射卫星并直接利用太阳能。”到 2025 年,Lumen 并不会孤军奋战。

其他初创公司可能会加入竞争。云计算巨头也可能启动类似项目,例如 Amazon 凭借 Project Kuiper 在太空资产部署上经验丰富;Google 长期支持此类“大胆计划”;甚至 Microsoft 也有涉足太空经济的历史。此外,埃隆·马斯克的 SpaceX 也可能在这一领域有所动作。

6. AI 系统在 2025 年通过“语音版图灵测试”

图灵测试是衡量 AI 智能水平的经典标准之一。

在传统的图灵测试中,AI 系统需要通过文字与人类交流,让普通人无法分辨自己是在与 AI 还是另一位人类互动,从而“通过”测试。

近年来,大型语言模型的飞跃式进展让文字版的图灵测试在 2020 年代几乎成为过去式。

然而,人类交流不仅限于书面文字。

随着 AI 技术逐渐向多模态发展,一种更具挑战性的“语音版图灵测试”正在被设想:AI 系统需通过语音与人类互动,其表达流畅性和自然程度达到让人无法辨别其非人类的水平。

目前的语音 AI 技术仍未达到这一标准,要实现它还需要技术的进一步突破。首先,语音 AI 必须将对话的延迟降至接近于零,才能达到与人类对话的无缝体验。其次,它需要在处理模糊输入或误解时表现得更加灵活,比如在半句中被打断时,能够即时调整。此外,AI 需具备在长时间、多轮对话中保持上下文记忆的能力。最关键的是,语音 AI 需要对语音中的非语言信号有更深的理解——比如听出对方的语气是烦躁、兴奋还是讽刺——并能在自己的语音中表现出类似的情感表达。

进入 2024 年末,语音 AI 正处于技术变革的关键节点。语音到语音模型的问世等突破性进展,让这一领域无论在技术上还是商业化速度上,都处于快速上升期。

预计到 2025 年,语音 AI 技术将实现重大突破,“语音版图灵测试”或许将成为现实。

7. AI 自主研发更优 AI 的突破或将在 2025 年迎来里程碑。

“递归自我改进 AI”一直是 AI 领域的热门话题,数十年来吸引了无数研究者的关注。

早在 1965 年,图灵的合作者 I.J. Good 就曾预言:“如果我们定义超智能机器为能够超越人类一切智力活动的机器,那么这种机器还能设计出比自身更优的机器。如此一来,一场‘智能爆炸’将不可避免,而人类的智慧将被远远甩在后面。”

“能创造 AI 的 AI”听起来像是科幻小说中的情节,但这一概念正在逐渐从理论变为现实。前沿研究人员已开始取得一些实质性进展,尝试构建能够改进自身的 AI 系统。

明年,这一研究方向将引起更广泛的关注。

目前最引人注目的案例是 Sakana 推出的“AI Scientist”。这一研究今年 8 月首次公开,展示了 AI 系统完全自主完成 AI 研究的可能性。

“AI Scientist”能够自主完成人工智能研究的完整流程:它会阅读文献、提出创新思路、设计并执行实验、撰写研究论文,甚至对自己的工作进行同行评审。整个过程完全由 AI 独立完成,无需人类干预。部分研究论文已公开发布供人阅读。

传闻称,OpenAI 和 Anthropic 等机构也在积极探索类似的“自动化 AI 研究员”项目,尽管尚未公开承认。

随着自动化 AI 研究的潜力被更多人认识到,2025 年将有更多相关讨论、技术突破和初创企业涌现。

最重要的突破或将是:AI 独立撰写的研究论文首次被顶级 AI 会议接受。(由于论文采用匿名评审,评审者可能在接受论文后才意识到它由 AI 撰写。)未来 NeurIPS、CVPR 或 ICML 接收 AI 生成论文的可能性不容忽视。这将是 AI 领域一个引发广泛争议的历史性时刻。

8. OpenAI、Anthropic 等前沿实验室将战略重点转向构建应用程序。

构建前沿模型是一项艰难的业务。

这是一项资本密集型产业。前沿模型实验室消耗了历史上前所未有的大量资金。OpenAI 几个月前筹集了创纪录的 65 亿美元资金,但可能很快就需要进一步融资。Anthropic、xAI 等机构也面临类似的情况。

切换成本低,客户忠诚度不高。AI 应用程序通常是模型无关的,不同提供商的模型可以根据成本和性能的变化轻松切换。

此外,随着 Meta 的 Llama 和阿里巴巴的 Qwen 等最先进的开源模型的出现,技术同质化的威胁始终存在。

AI 巨头如 OpenAI 和 Anthropic 不可能、也不会停止投资构建最前沿的模型。但为了开发更高利润率、更具差异化、更具粘性的业务线,明年预计前沿实验室将大力推进推出更多自主应用程序和产品。

当然,已有一个前沿实验室应用程序的成功典范:ChatGPT。

在新的一年里,我们还可能看到哪些类型的自主应用程序?

一个显而易见的答案是更复杂、更功能丰富的搜索应用程序。OpenAI 的 SearchGPT 项目正是这一方向的预兆。

编码是另一个显然的类别。同样,最初的产品化努力已经展开,OpenAI 的 Canvas 产品于 10 月推出。

2025 年,OpenAI 或 Anthropic 是否会推出企业搜索产品?或客户服务产品?甚至是法律 AI 或销售 AI 产品?在消费端,可以想象一款“个人助理”网络代理产品,或旅行规划应用程序,甚至是生成音乐应用程序。

观察前沿实验室向应用层转移的最吸引人的地方之一是,这一转移将使它们直接与许多重要客户展开竞争:在搜索领域,与 Perplexity;在编码领域,与 Cursor;在客户服务领域,与 Sierra;在法律 AI 领域,与 Harvey;在销售领域,与 Clay 等等。这种“竞合”关系的演变,无疑将为 AI 行业带来新的复杂动态。

9.  Klarna 因夸大 AI 应用能力而面临上市前的质疑与挑战

Klarna 是一家总部位于瑞典的“先买后付”服务提供商,自 2005 年成立以来已筹集了近 50 亿美元的风险投资。

也许没有哪家公司对其 AI 使用做出了比 Klarna 更浮夸的声明。

就在几天前,Klarna 首席执行官 Sebastian Siemiatkowski 对 Bloomberg 表示,公司已经完全停止雇佣人类员工,转而依赖生成式 AI 完成工作。

Siemiatkowski 说道:“我认为 AI 已经能够完成我们人类所做的所有工作。”

同样,今年早些时候 Klarna 宣布推出了一款 AI 客户服务平台,该平台完全自动化了 700 名客户服务人员的工作。公司还声称已停止使用诸如 Salesforce 和 Workday 等企业软件产品,因为可以完全用 AI 替代它们。

直言之,这些声明不具备可信度,反映了对 AI 系统当前能力的肤浅理解。声称能够用端到端 AI 代理取代组织中任何岗位的员工是不现实的。这等于说已经解决了通用人类水平 AI 的问题。

目前,顶尖 AI 初创企业正致力于构建能够自动化特定、范围狭窄且高度结构化的企业工作流的代理系统——例如,销售开发代表或客户服务代表的一部分活动。即便在这些受限情境中,这些代理也尚未完全可靠,尽管在某些情况下已开始表现出足够好的效果以实现早期商业应用。

那么,为什么 Klarna 会对其从 AI 中获得的价值做出如此夸张的声明?答案很简单。公司计划在 2025 年上半年上市。一个令人信服的 AI 叙事对于成功的公开上市至关重要。Klarna 仍是一家未盈利的企业,去年亏损 2.41 亿美元;它可能希望通过 AI 的故事来说服投资者其能够显著降低成本并实现长期盈利。

毫无疑问,未来几年,包括 Klarna 在内的所有组织都会从 AI 中获得巨大的生产力提升。但在 AI 代理能够完全取代人类劳动力之前,仍然需要解决许多棘手的技术、产品和组织问题。像 Klarna 这样夸大的声明,不仅损害了 AI 领域,也贬低了 AI 技术人员和企业家在开发 AI 代理方面实际取得的艰难进展。

随着 Klarna 为其 2025 年的上市做准备,预计这些声明将受到更多审查和公众质疑,这些夸大的说法迄今为止基本上没有受到挑战。不要惊讶,如果看到公司撤回了一些过于夸张的 AI 描述。

10. 首次真实的 AI 安全事件将发生。

随着人工智能近年来变得越来越强大,人们对 AI 系统可能以不符合人类利益的方式行动并失去人类控制的担忧也在增加。例如,可以想象一个 AI 系统为了实现自己的目标,学习如何欺骗或操纵人类,即使这些目标会对人类造成伤害。

这类广泛的担忧通常归类为“AI 安全”问题。

近年来,AI 安全已经从一个边缘化、半科幻的话题转变为主流活动领域。从 Google 到 Microsoft 再到 OpenAI,今天的每一个主要 AI 参与者都在 AI 安全工作上投入了实际资源。Geoff Hinton、Yoshua Bengio 和 Elon Musk 等 AI 界的标志性人物也对 AI 安全风险发出了明确警告。

然而,截至目前,AI 安全问题仍然完全是理论层面的担忧。现实世界中从未发生过任何真正的 AI 安全事件。2025 年,这一情况将发生改变。

我们应该对首次 AI 安全事件抱有怎样的期待?

需要明确的是,这不会涉及终结者式的杀手机器人,也很可能不会对任何人类造成任何形式的伤害。

或许,一个 AI 模型可能尝试秘密地在另一台服务器上创建自己的副本,以保护自己(即所谓的自我外渗)。或许,一个 AI 模型可能得出结论,为了最好地推进被赋予的目标,它需要向人类隐瞒自己能力的真实程度,故意降低性能表现以规避更严格的审查。

这些例子并非遥不可及。本月早些时候,Apollo Research 发表了重要实验,表明当被以某种方式提示时,当今的前沿模型能够表现出这种欺骗行为。类似地,Anthropic 最近的研究表明,大型语言模型(LLM)具有“伪装对齐”的令人担忧的能力。

图片

我们相信,这次首次 AI 安全事件会在真正造成任何实质性伤害之前被及时发现并成功化解。然而,这一事件无疑会成为一个令 AI 社区乃至整个社会警醒的时刻。

它将让我们认识到:在真正面对全能 AI 所带来的生存威胁之前,我们必须学会接受一个更贴近现实的事实——我们正在与另一种智能共存,而这种智能可能会像人类一样,有时表现出自我意志、难以预测,甚至带有欺骗性。