今天来看几篇高盛的分析,用一句话来总结就是:持续看好AI。
AI开支热潮并不夸张
GS之前也写过类似的分析,我们在星球中也发过那篇分析,从多个方面论证了现在的AI并不是泡沫.
先看看眼下 AI 投资的实际情况,从 2025 年的动态来看,美国 AI 相关的支出规模已经相当可观。单说企业层面,OpenAI 的几个大动作(之前讲过很多了,不再赘述),其他美国的大型科技企业在 2025 年下半年也没停下投资的脚步,只是增速相对平缓一些。
从更宏观的统计数据来看,2025 年美国 AI 相关支出的年化规模大概在 3000 亿美元左右。美国国家账户里有个指标,AI 相关支出的三个月年化增速,和 2022 年的平均值比起来,增加了 2770 亿美元。不过这里要提一句,今年夏天支出的增长,有一部分是因为关税政策,企业提前采购了一些设备,比如从中国台湾进口的相关产品,到了 9 月这部分进口就明显回落了,但整体的支出规模依然保持在高位。
可能有人会问,这么大的投资规模,支撑它持续下去的理由是什么?报告里从技术和宏观经济两个层面给出了答案。
技术层面的支撑很关键。首先是 AI 对生产力的提升作用。高盛的基线预测显示,如果美国全面采用生成式 AI,整个经济的劳动生产力能提升 15%,这个过程大概需要 10 年,从 2027 年到 2037 年主要是企业层面逐步应用,而且企业应用后,要完全实现生产力提升的效果,还需要 4 年左右的时间。不只是高盛自己的预测,学术研究和企业的实际案例也能印证这一点,很多企业在部署 AI 应用后,生产力平均能提升 25%-30%,像编码、客户服务、咨询支持这些领域,效果已经比较明显了。
当然,之前 MIT 有份报告说,95% 的 AI 试点项目没实现可衡量的商业价值,只有 5% 的企业定制 AI 工具投入了生产,这个报告确实给了行业很大的焦虑感。但GS也解释了,其实不用太焦虑。一方面,目前不足 10% 的企业会把 AI 用于常规生产,说明目前 AI 还处于逐步渗透的阶段;另一方面,MIT 的研究也提到,企业如果选择购买现成的 AI 应用而不是自己研发,让一线经理主导 AI 自动化项目,并且针对特定任务用集成工具,就能获得显著的价值,只是找到适合自己的 AI 应用方式需要时间。
除了生产力提升,AI 对计算能力的巨大需求也是支撑投资的重要原因。现在训练大型语言模型(LLM)需要的计算力,每年增长大概 400%,这个速度远远超过了计算成本下降的速度, 计算成本每年大概下降 40%。而且不只是训练模型,训练查询的需求每年增长 350%,前沿 AI 模型的数量每年也能增长 125%。虽然能源效率在提升,每年大概 40%,但和计算需求的增长比起来,还是慢了不少。再加上模型规模和性能通常是正相关的,想在 AI 领域保持竞争力,就必须持续投入提升计算能力,这也意味着相关的投资不会停下来。
从宏观经济角度看,目前的 AI 投资规模也在合理范围内。虽然从名义金额上看,现在的 AI 投资比以往任何一次技术周期都大,但如果和 GDP 比一下,就会发现其实并不极端。历史上,基础设施投资的高峰时期,占 GDP 的比例通常在 2%-5%,像 ICT 设备软件这类通用技术的投资高峰,占 GDP 也有 1.5%-2%,而美国近 12 个月的 AI 投资占 GDP 还不到 1%,和历史水平比起来,还有一定的空间。
更重要的是,AI 能带来的经济价值远超现在的投资规模。高盛用PDV模型算了一下,美国因为 AI 生产力提升带来的资本收入,基线情况下现值有 8 万亿美元,就算考虑不同的场景,比如生产力提升幅度更低或者更高,资本份额不同,折现率有变化,这个数值的区间也在 5 万亿到 19 万亿美元之间,不管怎么算,都超过了当前 AI 投资的预期规模。而且这个计算还没包括海外利润、新的利润来源,以及未来通用人工智能(AGI)可能带来的价值,所以从长期来看,AI 投资的回报空间是足够的。
不过,GS也没回避一个关键问题:现在投入 AI 的企业,不一定能成为长期赢家。这一点从历史经验就能看出来,过去很多基础设施建设周期里,“先发者” 的表现参差不齐。比如 18 世纪末 19 世纪初英国的运河建设,先发者获得了很高的收益,但后来铁路出现,后发者的收益就受影响了;而 19 世纪英国的铁路建设,初期因为过度投资导致泡沫破裂,先发者收益不好,反而是后发者低价收购资产,获得了高收益。美国的 IT 行业算是个例外,先发者在主机构建、操作系统、网络、云计算这些领域占据了优势,后发者也因为技术变革找到了机会,都获得了不错的收益,但这种情况并不常见。
再看现在的 AI 市场结构,不同环节的竞争程度差异很大。应用层的竞争非常激烈,有很多新进入者和初创企业;基础模型层虽然 OpenAI 暂时领先,但也有 Meta、Google 等不少参与者,竞争还算适度;数据中心层的情况和基础模型层类似;而半导体层,Nvidia 在芯片设计领域占据主导,TSMC 在芯片生产领域几乎没有对手,竞争相对较弱。目前来看,半导体这类硬件提供商更容易获得超额收益,但现在主要承担 AI 投资的是基础模型层的企业,它们能不能在长期竞争中胜出,还不好说。
另外,还有几个因素可能会影响企业的长期收益。现在 AI 技术迭代速度很快,而学术研究表明,技术变革快的领域,先发优势通常比较弱;而且现在很多企业不会只依赖一个基础模型,而是会同时用多个,这就降低了切换成本,先发者想通过锁定用户获得长期收益就更难了;再加上 AI 硬件的折旧速度快,按照估算,当前 AI 资本支出的折旧率有 18%,很可能出现基础设施建设和收入实现不同步的情况,这些都增加了企业成为长期赢家的不确定性。
不过,只要企业相信两点,AI 投资就还会持续下去。一是通过先发优势,能拿到 AI 生产力提升带来的超额收入;二是持续投入计算能力,能让 AI 模型的性能不断提升,甚至有可能发展出 AGI,而 AGI 一旦实现,可能会带来极高的利润。所以,虽然现在还不知道谁能笑到最后,但至少从目前来看,AI 投资的热潮还不会轻易退去,它背后的技术驱动力和经济价值潜力,还会支撑这个领域继续向前发展。
上调工业富联
工业富联之所以能在 AI 服务器赛道脱颖而出,关键在于它的三大优势:规模、全球覆盖范围,以及在供应链里的关键地位。在 AI 技术快速迭代的当下,产品交付速度很重要,而工业富联凭借这些优势,能高效推动产品交付,这也让它在 AI 服务器市场的份额不断提升,进一步巩固了行业领先地位。
高盛预测,2025 年到 2027 年的净利润年复合增长率(CAGR)预计能达到 45%,这和 2022 年到 2024 年 8% 的复合增长率相比,简直是质的飞跃。之所以有这样的高预期,核心驱动力就是 AI 服务器业务的爆发。随着 AI 服务器技术不断升级,产品规格持续迭代,工业富联和同行之间的差距会越来越大,这也让它能持续占据高市场份额。
在财务数据调整上,高盛也给出了具体的数字。2026 年的每股收益(EPS)被上调了 8%,达到 2.84 元;目标市盈率(P/E)则从之前的 29.4 倍微调至 29.5 倍。收入和净利润的预测同样乐观,2026 年预计收入 1.47 万亿元,比之前的预测上调了 3%,净利润 564.32 亿元,上调 8%;2027 年预计收入 1.96 万亿元,上调 10%,净利润 707.25 亿元,上调 7%。这些数据的调整,都体现了高盛对公司 AI 服务器业务增长的信心。
当然,市场上也有一些担忧的声音,比如客户会不会因为想分散风险而减少和工业富联的合作,进而影响它的市场份额。但高盛认为,目前 AI 服务器技术更新速度快,供应链需要保持稳定才能跟上节奏,而工业富联在技术研发和产品交付执行上的能力,能很好地应对这种需求,所以市场份额的可持续性不用太担心。而且,这家公司还在积极拓展客户群体,不仅覆盖了企业客户,还渗透到了美国和中国的头部云服务提供商(CSP),产品类型也涵盖了 GPU 和 ASIC 两种主流的 AI 服务器,这些都为它的市场份额提供了保障。
除了 AI 服务器这个核心增长点,工业富联的传统业务也有亮点。比如智能手机零部件业务,随着折叠屏手机这种新形态产品的兴起,市场需求在增加,而品牌客户为了保证产品能快速、高质量交付,更愿意和有技术实力的供应商合作,工业富联在这方面的优势也能让它在传统业务上保持领先。
不过,高盛也提到了一些潜在的风险,比如 AI 服务器的需求如果没达到预期,或者利润不如预测的那么高;iPhone 零部件业务因为竞争激烈,扩张速度放缓;新工厂的产能爬坡跟不上计划,还有 iPhone 出货量低于预期等,这些都可能会对公司的发展造成影响。但总体来看,高盛认为这些风险对公司整体增长趋势的影响有限,AI 服务器业务的强劲增长会成为主要的支撑力量。
从估值角度看,高盛之所以把目标价上调,是认为随着 AI 服务器业务的持续发力,公司的基本面会不断改善,估值也会随之重估。而且,当前 29.5 倍的目标市盈率,和公司历史峰值市盈率 29.9 倍相比,还有一定的空间,考虑到公司从传统智能手机供应链向 AI 数据中心领域转型的趋势,这个估值水平是合理的。
电力问题持续
今天看市场上比较平静,但SST板块热度依旧。我们始终认为,电力问题将会是个持续的问题。
高盛今天的一份报告中,专门讲了AI的电力问题。
先看最核心的预测数据:到 2030 年,全球数据中心(包括 AI 和非 AI)的电力需求,会比 2023 年增长 175%。相当于新增一个全球前 10 大电力消费国。之前高盛的预测还是 165%,这次上调,主要是因为 AI 服务器出货量比预期多,数据中心的容量建设也在加速,就算服务器的能源效率在提升,需求增长的幅度还是盖过了效率带来的抵消作用。
尤其值得关注的是美国市场,单是数据中心的电力需求增长,就能把美国到 2030 年的电力需求增速拉高 1.2 个百分点,最终达到 2.6%,这是自 1990 年代以来从没见过的水平。而且到 2030 年,美国数据中心的电力需求会占到全国总需求的 11%,2023 年这个比例才 4%。其中 AI 数据中心占比会从之前预测的 32% 升到 39%,非 AI 占剩下的 61%。就算把 AI 的需求去掉,美国电力需求增速也能有 2%,比近些年的表现好不少。
为什么会有这样的增长?又有哪些因素会拖后腿?报告里提出了 “6 个 P” 的框架,把驱动和制约因素讲得很透彻,我顺着这个框架来捋一捋。
第一个是 AI 的普及性(Pervasiveness)。这是影响长期需求的关键。现在大家都在说 AI,但 AI 到底能渗透到多少行业、多少场景,直接决定了电力需求的弹性。比如医疗、能源、农业这些领域,如果能推出更多高效的 AI 解决方案,数据中心的电力消耗肯定会跟着涨。不过这里有个争议点:AI 的 “推理” 阶段比 “训练” 阶段能耗低,但推理的需求规模到底有多大,还得看普及度和技术创新,这是未来要重点盯的方向。
第二个是计算生产力(Productivity)。简单说就是服务器和计算设备的效率。报告里举了 NVIDIA 服务器的例子,从 DGX A100 到 B200,算力提升了 15 倍,但功耗只涨了 2 倍,单位算力的能耗降了很多。不过效率提升不代表总功耗会降,因为如果计算需求涨得更快,总功耗还是会增加。高盛现在的判断是,超大规模企业的现金流和预算会是主要约束,如果预算有限,效率提升可能会让企业少买几台服务器,总功耗增长放缓;但如果预算没限制,效率提升反而可能刺激更多计算需求,让总功耗涨得更快。
第三个是电力价格(Prices)。现在大家都关注绿色能源,但绿色能源要满足数据中心的稳定需求,得有额外成本,也就是 “绿色可靠性溢价”。在美国,这个溢价平均大概是 40 美元 / 兆瓦时。听起来不少,但对超大规模企业来说,影响其实有限。按GS的测算,如果 8 大超大规模企业为 2030 年新增的电力需求支付这个溢价,一年的支出大概是 290 到 340 亿美元,只占它们 2027 年预期 EBITDA 的 2% 到 3%,对整体收益影响不大。就算未来通胀削减法案的激励措施到期,这个溢价涨到 48 美元 / 兆瓦时,占 EBITDA 的比例也才升到 3.5%,还是可控的。
第四个是政策(Policy)。政策的影响主要在两个方面:一是 IRA 的激励措施到期,二是项目审批速度。IRA 的激励措施对可再生能源项目很重要,短期影响不大,因为很多大型公用事业公司和开发商已经拿到了 “安全港” 资格,未来四年的项目还是能享受激励。长期来看,2028 年后可再生能源的增长可能会放缓,但高盛觉得会是 “温和放缓”。更关键的是审批流程,如果联邦和地方能加快电力项目的审批,对供应增长会很有帮助;反之,审批卡壳就会成为瓶颈。
第五个是部件可用性(Parts)。这是短期供应的主要约束。不同阶段依赖的部件不一样:短期看,太阳能板、电池存储设备、天然气调峰电厂的部件最关键;中期要靠天然气联合循环电厂的燃气轮机;长期则要看核电设备。GS预计,到 2030 年,数据中心新增电力需求的 40% 会来自可再生能源,60% 来自天然气发电。美国到 2030 年需要新增 82 吉瓦的容量来满足数据中心需求,其中 51% 是天然气调峰电厂,27% 是太阳能,这些都得靠足够的部件供应才能实现。
第六个是人力可用性(People)。简单说就是缺人,尤其是懂输配电(T&D)的技术工人。GS测算,到 2030 年,美国需要新增约 51 万个电力和电网相关岗位,欧盟需要新增 25 万个。最缺的是输配电领域的工人,美国光这个领域就需要新增 20.7 万个岗位,而且这些岗位需要 3 到 4 年的培训才能上手。但现在美国能源行业的活跃学徒只有 4.5 万人,就算把所有学徒都派去做输配电,还缺 7.8 万人,得再增加 2 到 3 万学徒才能补上缺口。相对来说,可再生能源建设和欧洲的运营维护岗位对技能要求低一些,缺人的问题没那么严重。
除了需求和制约因素,GS还提到了供应端的投资和碳排放的问题。供应方面,美国到 2030 年需要新增 82 吉瓦的容量,比之前预测的 72 吉瓦多了 10 吉瓦,其中 60% 是新增容量,40% 靠现有供应。电网投资也得跟上,预计到 2030 年全球电网投资会达到 7900 亿美元,比之前多了 100 亿,其中 67% 会用在输配电和电网升级上。碳排放方面,到 2030 年,数据中心的碳排放会比 2023 年增加 2.15 到 2.2 亿吨,占全球能源排放的 0.6%。不过长期来看,随着核电占比提升和 AI 推理阶段能耗降低,碳排放强度可能会降下来,甚至绝对排放量也可能减少。
最后再聊聊投资机会。GS提到,值得关注的企业主要集中在三个方向,关注电力的读者可以好好记下下面这三个方向,在未来肯定会持续有话题:
一是保障电力和水资源可靠性的;
二是满足新增电力需求的;
三是提升效率的。
最近我们一直提的SST是属于第三类,这两天很多机构都在约SST产业的专家,说明市场对这块并不是非常了解。我们之前的文章中也讲过一些SST的东西,主要是在讲SST的效率优势,这个章节我们讲一下SST的另一个优势,就是节省面积。数据中心的占地面积是非常惊人的,而电源又占了大头。
大型数据中心的建设往往需要大规模土地支撑,部分项目因选址或规模原因,可能占用农田、生态保护区等具有特定功能的土地,对土地资源的可持续利用造成影响。以 Meta 为例,其在路易斯安那州推进的数据中心项目,占地面积达 2250 英亩,宾夕法尼亚州克利夫顿镇规划建设的 1.5GW 数据中心项目,仅土地占用规模就需达到 1000 英亩。
以中国移动其中一个万卡集群为例:占地总面积接近10-11万平方米,其中服务器电源总面积占比接近4-4.5万平方米,达到40-45%。
英伟达GB200的功耗 已达 2700W 水平,在传统机架电源系统下存在空间限制,若用 54V 直流配电,在 MW 级功率需求下,Kyber 电源架将占用高达 64U 的机架空间,压缩计算设备空间。SST较传统交流 UPS 方案和直流 240V 电源方案可节省约 50%占地面 积。中压接口、功率转换、控制全部集成一体,安装周期缩短 75%。
本篇文章参考的内容都在星球的ima中,关于SST的更多讨论和资料,包括SST相关公司出海送样进展的情况,都会在星球。
知识星球
英伟达服务器配件