2025年,对于AI商业,随着DeepSeek的炸裂登场,是极不寻常的一年。在过程中是百转千回;蓦然回首,却是尘埃落定。
一种开启新年的方式,是像沐浴更衣一样,认真反思过去一年的得失。认真反思是为了走得更远。
过去一年,我们在不同的分析中,对AI的商业和投资做过大大小小的预测,有对有错,有得有失。恰逢翻年,我们把这些预测归为25条,做一个整体复盘。
复盘的目的不是为了证明自己的正确,而是实践认知迭代的“三联”:预测-复盘-新知。希望从得失、尤其从错误中,总结不断演化的AI产业逻辑,并用于对当下、对2026年的判断。
以下,我们在每一条预测后面,在括号中表明预测的时点,用✅代表已被验证,❌ 代表错误,⚠️代表部分验证,📍代表结果不明,仍未验证。
01
对“DeepSeek 现象”的判断
为溪的预测&实际结果:
1.1 丨DeepSeek的未来产业地位:“DeepSeek 会超过 ChatGPT,成为全球日活最高的大模型应用。”(2月)❌
1.2 丨 AI产业将会普惠化发展:“这是所有人的游戏:赢家不再只是科技巨头,而是广义的科技产业链上的玩家。”(2 月) ✅
1.3 丨 最终还是要接受基本面的检验:“DeepSeek 会根本性地改变中国科技公司的想象力和流动性,但最终会回归到中国AI的实际水平提升速度、产业应用速度以及基本面上。”(2 月)✅
我们学到了什么?
2025年初,DeepSeek-R1 的成功震撼了全世界,仅用7天时间就完成了1亿用户的增长。虽然有这样梦幻的开局,但后来实际发生的是,2月的月活成为一年的高点(图1),占据最佳身位的 DeepSeek并没有将技术和产品上的领先优势,转化为商业的成功,一个中国版的 ChatGPT 故事也就没有如期发生。为什么会这样?
在做这个判断时,我们没有足够重视的,是DeepSeek 作为一家没有创收压力的研究型机构的动机问题:一方面是商业动机不足,其始终坚持在工程优化的路线上持续进步,但产品体验仍然停留在年初;另一方面是虽然对中国版AI基础设施升级有贡献,但市场化的产品体验并不是重点。DeepSeek并没有足够的动力,或者说没有表现出足够的适应性,去抓住这个泼天的机会。更普遍而言,用什么姿势去拥抱“最大的一次通用技术革命”,对所有人,包括初期的赢家和输家,都是持续需要解答的问题。
但客观而言,DeepSeek对中国乃至世界的AI产业和资本市场,带来了普惠型的正向影响:2025年初以来,美国的七姐妹总市值仅上升24.3%,而广义的AI科技公司上升了38.6%。中国的科技公司们在DeepSeek-R1面世之后,经历了估值重塑,打破了美国单极世界领军的格局,此后则经历了多轮的波动。以当时被提出的“中国十杰”概念为例,这十家企业一年的涨幅中有80%是在第一季度完成的。
在月活和市值之外,我们的复盘需要走得更深。DeepSeek 的案例,其实是一个非常典型的“企业如何同时跨越技术和商业的S曲线”的挑战。一家帮助全世界解锁了强化学习范式、建立了普惠型 AI 基础能力的企业,最终并没有拿到与之匹配的商业回报。2025年12月,DeepSeek 发布了最新的模型 DeepSeek V3.2,在其技术报告中,DeepSeek 坦诚地承认“闭源模型与开源模型之间的性能差距并未缩小,反而日益扩大,闭源智能体系统在复杂任务中展现出越来越强的优势。”原因主要有三:
第一,算法架构上的迭代问题。开源模型普遍依赖传统的“标准注意力”机制(vanilla attention,意思是每个token一样重要),闭源模型则都已经定制化地开发了非均等的注意力机制。特别是在长上下文任务(复杂度高的)里,二者差异很大;
第二,资源分配力度问题,在后训练上的投入不足(DeepSeek自己的后训练预算占预训练的10%,很多其他模型公司可能还不到1%)。但更加本质的,因为体验和投入都不够,DeepSeek缺少一个可规模化的人类反馈系统(杀手级应用),而依靠人工标注数据集,最终结果就是,很好的应试学生,在实际任务中的表现会被拉开;这可能是中国不少大模型企业面临的普遍问题。
第三,应用的价值创造问题。在真实应用场景中,开源模型的泛化能力和指令理解能力明显落后,影响最终的B端部署效果。这是算法、产品上的差距带来的结果。
DeepSeek目前的思路,仍然是通过技术创新本身来解决上述三种问题,在论文的最后,他们写道:“如果 Gemini 3.0 证明了持续扩展预训练的潜力,DeepSeek V3.2-Speciale 则证明了在大规模上下文环境中强化学习的可扩展性。”这是一个技术团队的思路,而非AI商业的思路。
对于有大量资源支持、也有理想追求的DeepSeek来说,这个选择当然是成立的。但对更多的科技创业企业来说,DeepSeek在2025年的旅程应该给我们的感悟是:技术和商业的两条S曲线,最终其实是一件事。在美国,OpenAI 、Anthropic、Gemini、X.ai,实际上都是通过技术和商业产品的结合,建立了数据飞轮,才有了后来模型持续升级、公司持续融资的可能性。不把AI当作产品来做,你只能走那么远。
可对照的是,豆包在2025年初被DeepSeek惊艳地超越之后,到年末又远远甩开DeepSeek,这就是技术结合商业的成功。从这个角度,我们也可以理解 OpenAI,在不断突破大模型边界的同时,注重不断定义新产品,其成功的不容易。
02
对大模型的判断
为溪的预测&实际结果:
2.1 丨 预训练大模型和推理大模型将会融合:“基础大模型和推理大模型的融合将会很快发生。”(2 月预测)✅
2.2 丨 大模型产业的收敛与垂直分工趋势:“无论中美,通用大模型公司只会剩下不超过 5 家,其他的大模型公司会转型成为大模型服务企业,走向垂直产业。”(2 月预测)✅
2.3 丨 当下对预训练和后训练的两条取舍路:“通往 AGI 有阶段性选择预训练或者后训练两条路:一条是 OpenAI 为代表的‘思维链+强化学习后训练’路线,和各个场景的结合;另一条是 Anthropic 为代表的‘创造独有场景中的数据飞轮(Coding)+预训练’路线。”(6 月预测)⚠️
2.4 丨 编程对于AI商业落地的战略意义:“Coding 是智能体在数字世界的手,其重要性仍然被很多人低估,头部大模型公司都会做,但 Anthropic 及其生态已经有明显的先发优势。”(6 月预测)📍
我们从中学到了什么?
首先,到年底为止,通用大模型演化出了哪些特征?我们看到,大模型产业通过创新和竞争,逐渐呈现出三个关键特征:第一,只剩下少数几家既有资源又有技术的基座模型。第二,基座模型相互之间有非常接近的通用能力。第三,基座大模型并非完全通用,而是各有擅长的专业场景能力,比如 OpenAI 在通用 task 和聊天陪伴场景中体验最好、Anthropic 在代码能力上最强、Gemini 在多模态能力上最强。
这是一个最佳的案例,验证了我们提出的“智能三环”框架(智能 = 推理 x 场景 x 数据)的现实发生:(见图2)
第一,大模型能力的收敛和分化,本质都和场景及数据有关。
大模型通用能力的接近,本质是公域数据走到尽头。
而大模型分化的本质,是不同模型构建的场景和数据的禀赋不同:以三大顶尖模型为例,OpenAI 的用户量最大,日常生活聊天类数据最多;Anthropic 的程序员用户最多,真实代码问答类数据最多;谷歌则有历史上沉淀的海量多模态数据,从预训练阶段就可以直接做多模态的输入和输出。
基于这个逻辑,有独特数据飞轮的模型厂商,在特定的场景里能持续做到最好的体验,所以可以预期,2026 年,各家大模型的分化会更加明显。不同通用大模型会成为通用的专家。
第二,从智能三环的角度,也可以判断后面可能发生的大模型产业格局:
OpenAI 的数据优势仍然是最大的,一个“OpenAI+1”的个人助理终局现在看最有可能。
其他模型(比如 Gemini)在通用能力上的追赶,其实无法缩小通用智能体产品在日常场景中和 ChatGPT 的差距。目前,从日活看,当 ChatGPT 的日活在 4.8-5 亿之间(对应 ~40%的 MAU),Gemini 则只有 9000 万(对应 ~15%的 MAU);从过去 12 个月的留存率来看,ChatGPT 同样是 Gemini 的 2 倍(50%和25%)。
所以,可能发生的是,通用场景里的 ChatGPT 作为个人助理,结合一个专用场景的专业助理(程序员选择Claude,创作者选择 Gemini 等等)。
第三,那么,既然OpenAI有用户上的优势,为什么在模型能力上仍然被Gemini和Claude追上?我们认为这关乎智能三环内部的运转逻辑:OpenAI 过去大半年对预训练的忽视(这是我们没有预想到的),或者说是过于重视后训练的能力,实际上导致了场景中的海量数据,无法有效地反馈到推理能力本身的提升中,所以智能三环的飞轮没有转起来。这意味着,在智能三环中,模型能力赋能场景和数据,以及场景和数据赋能模型,都同样重要,这是一个双向的飞轮。
OpenAI 从遥遥领先到被追上,就是场景和数据的飞轮,还没有足够有效地反馈到推理能力的提升里。后训练确实带来了差异化,但不提升预训练大模型,后训练就会不可避免地撞墙。
所以,对于基座大模型公司来说,OpenAI学到的教训是,预训练必须做,这是真正提升模型智能上限的(一个有趣的对比是,这是人类大脑自己没法做的,只能靠后天的训练,所以有天才和常人的区别;而AI通过不断的预训练,都可以成为某个领域的天才),后训练和推理时间的Scaling Law(规模定律),更多是在场景中挖掘智能的上限,但并不能取代智能本身的上限。预训练和后训练二者不应该是替代关系,而是飞轮式的循环关系。
Google DeepMind 研究与深度学习副总裁 Oriol Vinyals 在推特上总结得好:“Gemini 3 这么强,核心秘诀就两点:更好的预训练,更好的后训练。”
03
对算力基础设施的判断
为溪的预测&实际结果:
3.1 丨 算力需求整体会大很多,同时英伟达的份额会相对下降:“我们会进入一个算力需求整体继续快速扩张、但英伟达的相对重要性下降”的阶段。”(2 月预测)✅
3.2 丨 存储会成为当下瓶颈:“接下来,存储(HBM、NAND、HDD)会成为整个 AI 算力产业链的关键瓶颈。”(9 月预测)✅
3.3 丨 算力基础设施产业的竞争格局:“算力基础设施行业在从普涨进入到一个上下游博弈、同环节竞争的分化阶段,因为供不应求,更上游的玩家将会受益更多。”(12 月预测)📍
我们从中学到的?
回顾 2025 年,算力基础设施的一个关键词就是产业链的“木桶效应”:整个算力基础产业其实是在“持续的供不应求”和“供给瓶颈的不断迁移”的背景中发展的。这意味着,每个阶段的相对赢家非常不同。
这个供给瓶颈发生的顺序,是严格按照芯片的“生产制造(Manufacturing capabilities)-交付使用(Availability)-持续运行(Sustainability)”的过程发生的。通俗地说,一开始是“造出来”的瓶颈,接着是“装进去”的瓶颈,后来是“跑得稳”的瓶颈。图3呈现了2025年四个季度市场对AI基础设施不同环节瓶颈的预测和后期的调整;这是一个值得仔细分析的AI基础设施如何发展、市场如何预判和纠错的案例。
整个2025上半年,当万卡集群成为标配之后,瓶颈首先出现在最核心的计算单元内部。我们发现,限制算力的不是 GPU 核心本身(台积电产能相对充裕),而是把芯片“包起来”的 CoWoS 封装,把芯片“连起来”的光互联,以及支持芯片长推理的 HBM。
到了年中,随着CoWoS 产能释放,更重要的是如何拿到这些芯片(与上游供应商的关系),以及建设数据中心的能力(液冷、土地、容量),在这个阶段,我们看到了 NeoCloud 们的崛起。
当先进的逻辑芯片真正投入使用,瓶颈又外溢到了计算之外。随着模型参数的指数级膨胀,GPU的计算速度远超数据搬运速度,这时“内存墙”成了新卡点——不只是 HBM 这一类被封装在计算芯片内部的存储单元,还包括了eSSD、HDD 等冷存储上的基建。
到2025年底,比存储更难解决的问题是物理世界基建的瓶颈。大模型运行时所需要的电力瞬时高波动性,给传统电网的电压和频率都带来了极大的挑战(至今仍未解决)。
按照这个逻辑往后推演,2026 年可能出现的墙包括:第一,如何解决电力短缺的问题;第二,在端侧,计算和存储的瓶颈会重新上演;第三,伴随着供给侧投入的不断扩大,AI 应用的整体 ROI 挑战持续。
从“木桶效应”的角度,我们也可以理解芯片产业中的企业生态位:
英伟达的“AI 系统”壁垒非常稳固,仍然是最可能第一家达到十万亿美金的公司。黄仁勋已经不止一次在业绩会中强调,英伟达的优势不只是逻辑芯片本身,还包括了网络(已经做到单季度近百亿营收)、存储、能效比等等。这个系统的壁垒并不容易打破。
AMD:“滑铁卢”其实出现在网络能力上(第一道墙)。在单体芯片上,AMD的参数可以做到优于同代的英伟达芯片,但在芯片互联上,AMD 仍然依赖标准的以太网协议(没有英伟达的 NVLink),就导致延迟增加、损耗变大;最后的结果是,节省了 10%的成本,但在整体 AI 系统的部署速度上会慢 2 个月,对大科技公司来说反而是成本更高。也因此,AMD 现在更像是一个备选,而非主流。
博通 + 谷歌的 TPU:挑战在于内存(第二道墙)。我们在之前的文章分析对比过,虽然 TPU 在整体性价比上已经追赶上了 GB200,但明年英伟达的 Rubin 系列会在内存上做一次跨越式的升级,而 TPU 在这一方面的迭代幅度相对更小,因此差距很可能再次被拉开。
04
对 AI 应用的判断
为溪的预测&实际结果:
4.1 丨 AI商业应用最先可能在哪里发生:“AI商业的应用有落地顺序:身处智能三环中心的产业(即信息密度最高、场景价值最高、最可计算的产业)将会最先落地 AI 商业,创造直接的基本面效率提升,比如数字广告业的 Meta、AppLovin 等。”(2 月预测)✅
4.2 丨 对 AI 搜索的判断:年初时(2 月预测),我们倾向于认为, AI 让搜索方式有了更多的可能性,ChatGPT、Perplexity、Manus等对谷歌的挑战会持续发生。但后来的事实证明(8 月预测),谷歌的搜索隐忧没有想象中那么大,而是谷歌和挑战者们分别有各自的课要补,如果 AI 搜索的场景仍然是浏览器,下一个谷歌仍然会是谷歌。⚠️
4.3 丨 对自身不做通用大模型的智能体商业崛起的判断:“‘套壳’的说法严重低估了以 Perplexity、Cursor 、Manus 为代表的不做大模型但是做智能体的 AI 服务商的价值。它们将会持续验证 AI 时代的‘安迪-比尔定律’,会成为真正的大模型和专业场景之间的桥梁,有自己独特的壁垒。”(6 月预测)✅
4.4 丨 对一些杀手级应用机会的判断:“ChatGPT 的 Pulse 预示着超级助理的雏形,Sora2 则预示着 AI 版抖音的机会,市场上存在 ChatGPT 级别的杀手级应用的机会。”(10 月预测)📍
我们从中学到的:
美国的AI商业已经进入到了 AI 应用的阶段,表现在AI应用类企业在ChatGPT问世以来成为增长最多的板块(图4)。但AI 在场景中如何颠覆现有玩家、或融合进入到现有产业中的方式,既是当下AI商业的难点,也是没有预料到的。
让我们复盘一下AI是如何颠覆一些应用场景的:
首先,这几年搜索的格局变化告诉我们,不应该假设有场景优势、数据优势、资本优势的大厂在自己的基本盘场景里会等着被颠覆。这也是“智能三环”框架告诉我们的重要结论之一。
2025年初,无论 ChatGPT 还是 Perplexity,看起来都像是谷歌的颠覆者。谷歌也有革自己命的决心,在一季度的一份内部纪要中明确写道:“ 摆在我们面前的有三条路:第一,搜索业务根基不动摇;第二,搜索流量部分流向自家的Gemini; 第三,搜索流量大量流向ChatGPT。第一条路当然是最好的,但最坏的情况是第三条,所以我们应该力保第二条路实现。”
但事实证明,只要巨头的模型能力追赶上、在自有场景中融合 AI,其竞争力仍然很强,谷歌 2500 亿美元级别的搜索广告,仍然在以双位数的速度增长,已经连续三个季度实现边际加速(9.8% → 11.7% → 14.5%)。
这个道理,可以帮助我们判断:ChatGPT 和 Perplexity 在浏览器上的努力对 Chrome 的冲击有限;ChatGPT 的群聊功能对 Meta 的冲击也有限。
真正发生颠覆的场景,往往有三个共同特点:第一,原有场景和智能三环发生了严重脱节;第二,产生了全新的用户和产品;第三,商业模式被新玩家重构。现在看来,已经发生颠覆的,其实是AI Coding。就在一年前,AI Coding 的头名,其实是有场景和数据优势的微软(Github Copilot 和 VSCode),但今天,微软已经不在这个赛道的讨论之列(被讨论的是Claude Code、Cursor、OpenAI Codex等)。让我们仔细分析这个场景发生了什么,及其中AI商业的逻辑:
第一,代码是最早耗尽公域数据、也最早进入到数据潜力挖掘的赛道。 Anthropic 做了两件事:一方面,以程序员为核心用户,创造了一个代码场景的数据飞轮(源源不断的新数据);另一方面,定义了实用性代码的自有测试集。因此,Anthropic 的模型代码能力与其他玩家拉开了代差,而微软的场景、数据和OpenAI 的模型无法合力,直到后来解绑后接入 Claude。这是我们讲的第一点,微软没有能够把大模型、数据、场景的三环足够聚力;而在编程领域,因为其强大的逻辑性,大模型企业(如Anthropic)是可能从编程大模型出发,创造自身的智能三环生态和飞轮的。
第二,在Anthropic之上,Cursor作为一个自身不做大模型的AI服务企业,再造了一个coding的环境和场景,这个场景中写代码的方式、流程都和之前完全不同。在这个被称为“Vibe Coding”的新场景里,真正的用户其实已经不是专业的开发者,而是很多普通人,这些人写代码的习惯、流程是需要重新定义和学习的。Cursor 作为先发者,真正积累的是这方面的 know how。
第三,AI Coding 的商业模式和估值逻辑也已经被改变。在2025年初,一个普遍的做法是按照工具的订阅费(20 美金/月)来对 AI coding公司估值,似乎是一个永远算不平的账;但到今天,AI Coding 市场是直接对标全球程序员劳动力市场估值的,不少公司是愿意为这个能力向 Claude 支付 200 美元/月的费用的。也因此,越来越多的人相信这会是一个千亿美金级别的市场。
我们再来看AI如何融入(而非颠覆)场景:
在年初,我们想象中的 AI 融入原有业务的方式,是“ Meta 模式”。但事实证明,更加普适性的融合方式,更可能是 “AppLovin 模式”。二者有什么不同?
所谓的“Meta 模式”,就是企业拿过去积累的场景数据重新训练/微调一个自有的产业智能体,就像 Meta 的 Advantage+。但事实上,在数字广告行业,唯一能用大模型来优化算法的就是Meta,可以做到5%-10%的提效,对应200亿美金的利润增量。
而大部分行业中的玩家,没有大科技公司那么多的数据量(百亿级、千亿级,都和大模型的数据量差很远)。其真正拥抱 AI 的方法,其实是像 AppLovin 那样,把 AI 当做供给侧的能力升级工具,大幅提升原有低效环节中的效率,带来基本面的改善。这是智能三环的另外一个视角,即模型能力和场景数据丰富度之间的关系。那么,这是如何发生的?
AppLovin 的终极目标,是提升对用户在长尾场景(比如小游戏)的识别率,进而提升广告单价。
AppLovin 看到的是,上一代的传统 AI 算法,可以因为数据效率的改善带来巨大的效果提升;要拥抱这个机会,大模型在这个过程中,主要是做好执行。怎么做?在过去,要升级传统的 AI 算法,往往需要大量的成本,因为训练的数据主要是依靠人工来整理的,包括广告系统中大量的非结构化数据(包括广告文案、图片、视频、评论等)、用户的反馈信号数据(往往也是脏数据)等。现在,这两项工作都可以交给 AI 来完成,大幅地提效、高频地迭代。这意味着,AppLovin 可以用更低的成本、更短的时间,来实现对算法精确性的追求。
而 AppLovin做到的,一是通过大模型用好独有的数据,二是把对游戏广告场景的理解融入算法,这包括对相关业务环节定义的改变:如何设定广告系统的目标、用户的标签如何定义、冷启动的样本如何处理、如何对用户的行为反馈进行建模等等。也包括如何运营的改变:在设定模型目标时,不采用传统的点击率为目标,直接以尽可能精确的 ROI 回报为目标;在标签的设计上,结合用户在游戏中的时间跨度和活跃程度以及表现,来给用户打标,区分哪些是真实的长期用户、哪些是短期用户;在数据采样上,尽可能还原真实投放时用户的分布,避免模型出现偏差。这里的关键,是算法、数据、和场景know how的有效创新结合。即便本身不做新的产业大模型,不同企业在这个结合做出来的效果,也完全不同,尤其是对行业 know how理解的挑战。AppLovin之所以可以做到这些,和其自身曾经拥有上百款小游戏脱不开关系。
以上分析了AppLovin模式和Meta模式之间的差别。我们认为,后者其实代表了一种更普适的 AI 融合场景的思路:不是一定要做一个智能体,而是在信息最密集的环节里,以提升业务效率为根本的目标,用好大模型这个升级版的信息处理技术就可以。当然,要做到这一点,仍然需要大量的商业要素和流程重新定义的创新。这是这个阶段相对明显的低垂果实。
05
对“AI八仙”及其资本市场表现的判断
为溪的预测&实际结果:
5.1 丨 对英伟达的判断:“在一段时间内是 AI 时代的 Wintel,护城河很高。从其基本面成长性来看,估值其实并不贵。”(8-11 月一直预测)✅
5.2 丨 对OpenAI的判断:“OpenAI 军团和谷歌军团的竞争将会是交替领先,任何一方的过度反应都是机会。”(11 月预测)✅
5.3 丨 对微软的判断:“有先发优势和滚雪球优势,将会持续成为智能战略的范本”。(2 月预测)❌
5.4 丨对亚马逊的判断:“今年,AWS 和 Anthropic 的结合会成为惊喜。”(2 月、6 月预测)❌
5.5 丨 对谷歌的判断:“三季度起,谷歌将会从非共识变成共识。原因在于搜索隐忧的减少,以及因为 Gemini 大模型的进步,谷歌云将会事实上成为谷歌有壁垒的第二曲线。”(8 月、9 月预测)✅
5.6 丨 对Meta的判断:“基本面(即 AI 给数字广告带来的效率提升和广告范式改变)将会持续得好,带动市值的增长”(2 月预测)。⚠️
5.7 丨 对苹果的判断:“AI 版的 Siri 会比想象中慢,AI 硬件对手机的冲击会比想象中弱,护城河优势允许苹果后发。”(7 月、 10 月预测)✅
5.8 丨 对特斯拉的判断:“特斯拉还是没有壁垒,当下的电动车业务受到竞争格局影响还会持续,而新故事都还遥远。”(12 月预测)📍
我们从中学到的:
过去一年中,大科技公司整体而言,是较好、但并非最好的投资选择,这应该是投资者们记住和思考的。年初以来,美国的AI七巨头中其实只有英伟达和谷歌跑赢了大盘(纳斯达克指数的涨幅为 30%,标普 500 为 17%)。所以,巨头本身也在分化发展,应该分开理解。
对做AI商业和投资的人来说,跟踪AI七巨头最重要的价值,其实是通过这些企业看AI商业的发展,以及理解他们眼中的AI趋势,因为他们往往代表了最大的场景应用,我们之前已经在11月的文章《AI,八仙过海》中,做过较为完整的梳理和预测。在此,我们重点复盘与我们的预期偏离最大的两家云计算公司(微软+16%,亚马逊+6%)的表现。为什么会这样?
要理解云计算企业,首先需要懂得大模型的重要性。其根本的逻辑在于,在美国AI商业发展的现阶段,大模型在决定对基础设施的需求,所以需要结合大模型产业本身的进展,来理解云计算企业的状态。如之前分析,2025年初 DeepSeek-R1发布后,开源与闭源的差距又被重新拉开,也因此,世界并没有如纳德拉所说,“进入了模型的过剩时代”,顶尖的大模型仍然是 AI 产业链上最稀缺的要素。换句话说,围绕智能做云的逻辑,在现阶段仍然成立。在大模型发挥关键作用的背景下,微软和OpenAI的过早相对解绑,是双输。
大模型、云计算与芯片等AI基础设施能力的强绑定,也就是很多人怀疑的“循环投资”,实际上今年已经演化为AI基础设施产业的标配。这是一个“木桶效应”在竞争层面的结果。做得不够好的企业,就面临更大的挑战。
今年呈现出的一个重要趋势就是:基础设施玩家的“抱团卷”已经越来越明显,包括NeoClouds 和英伟达的绑定、谷歌云和博通的绑定、云计算公司和电力能源的绑定、云计算公司和开发商的绑定等等。
在这个背景下,微软和AWS 其实当下处于一个有清晰短板、但长板不够明显的处境里:没有独家绑定的大模型、没有足够好的自研芯片,这是二者和谷歌云的区别。我们因此预期,2026 年,三家美国传统云计算公司中,谷歌智能云仍然会是领跑。
在微软和AWS之间,我们认为AWS 的挑战是小于微软的。AWS的全栈布局仅次于谷歌,只是存在一个效果滞后的问题:一方面,Anthropic有迁徙到AWS的时滞问题,到今年四季度,AWS 才会成为其最大的云平台,其次才是谷歌云;另一方面,芯片上也存在时滞问题,Anthropic 原来全面采用谷歌的 TPU(Q4 对博通的百亿订单),AWS的Trainium即使在性价比上追赶上,Anthropic要部署起来仍然需要时间。反过来,主动和 OpenAI 解绑的微软,自研芯片也更落后,受到的挑战会更大。
06
对中国 AI 商业和资本市场的判断
为溪的预测&实际结果:
6.1 丨 中国大模型会追上美国:“中国的大模型们会很快追平美国同行”。(2 月预测)❌
6.2 丨 但大模型并不代表AI商业的成功:“中国的 AI 商业要跑起来,前提是模型应用能力要真正追赶上美国的第一梯队玩家,目前没有看到充分的证据。”(5 月、11 月预测)✅
6.3 丨 中国AI基础设施企业仍然面临基本面符合市场预期的考验:“中国的芯片和美国仍然存在代差,看似很高的毛利率背后其实有隐忧。”(9 月预测)。✅
我们从中学到的:
对美国 AI 商业的理解,可以帮助我们理解、判断中国AI商业的现状:
第一,模型能力决定上游的算力投资和下游的 AI 应用。事实上,只有少数的中国大模型(主要是 Qwen)追上了美国同行。模型能力的不足,也就限制了很多 AI 应用上的可能性,这决定了中国的AI商业落后美国一个阶段。反过来,因为开源和大科技公司的持续投入,全球算法范式不出现根本性突破的窗口期里,明年是可以期待中国顶尖大模型追上美国同行的脚步的。
第二,结合我们的“智能三环”理论,美国AI商业的发展路径预示了中国当下的发展路径:拥有场景优势、数据优势的大厂,会在最有想象力的场景里(无论是软件还是硬件)阻击初创公司。2026 年将会首先是一个中国大厂们的 AI 应用落地年。
抖音已经在年底放出了几个大招,包括即梦对剪映的升级,豆包在超级助手方向上的领先,豆包手机的尝试。
腾讯在四个方向上的AI 应用:和微信融合的超级助手(预计2026年第二季度 上线)、微信中的智能搜索和推荐、社交服务(对应 ChatGPT 的“群聊”功能)、小程序生态的 Agent 升级。
阿里巴巴宣布全面对标OpenAI,包括千问从工具升级为独立产品,意味着在各种2C、2B产品的对标落地。
对国内的 AI 创业公司来说,则需要更有锐度地找到自己的生态位,比如垂直、硬件、出海。
第三,关于中国企业的资本市场表现:2025 年的主题是DeepSeek之后估值的重塑。估值是一种假说,如果要走向持续的繁荣,必须看到结构性的基本面验证。目前因为中国AI商业是落后一个阶段的,在基本面的表现还不明显。这个逻辑决定了,2025年一季度以后,中国科技公司们的整体表现不够出色(图6),很多的相对确定性来自基础设施产业。但无论AI基础设施企业亦或其他,整体而言,中国很多的AI公司,既面临估值过高、盖特纳曲线回落的风险,也同时面临美国AI商业展示出的巨大成长空间。怎么做,就是不同企业的功课,也是投资者的功课。
07
结语
2025年,随着DeepSeek横空开局,中美AI商业是风起云涌,极不寻常的一年。
在过去的一年中,我们在中美AI产业格局、大模型、基础设施、应用、资本市场层面,都做了大大小小的判断。复盘这些判断,本身就是很有价值的行动,也决定了我们可以带着什么样的思考框架,进入新的一年。我们相信这也是对读者的价值。
在AI革命大潮奔涌而来的无常时代,在创新与定力的不定面前,在贪婪与知止的抉择面前,除了假说-验证-复盘-新知,我们不认为有别的拥抱革命的方式。