昨晚大家都在讨论Rubin Ultra 4-die要取消的事,做这么复杂的芯片,遇到制造难题太正常了。这种级别的集成度本来就是在挑战极限,工程团队根据实际情况调整实现路径,恰恰说明他们在务实地解决问题,而不是死磕到底。
GFHK提到可能从原生的 4 颗 die 设计改成 2+2 的配置,但这个也还不成熟,所以目前最终是什么方案还很难下定论。
具体选择什么方案,其实大家并不用太在意,我们只需要知道,从系统层面看,这些影响都不是很大。因为云服务商采购的是整套计算系统,不是单个芯片。
他们买的是计算托盘、机架级的完整方案。至于里面的芯片是 4 颗 die 原生封装,还是 2+2 组合起来的,只要最终交付的系统规格不变,对他们来说区别不大。
具体来说,如果 2+2 配置依然能提供每个高端单元约 1TB 的 HBM4e 内存,系统架构(比如 NVL/Kyber 规模)也保持不变,那整个系统的内存容量其实没变。从这个角度看,HBM 的需求量应该看系统配置,而不是纠结 die 怎么切分的。
核心逻辑就是:Rubin Ultra 要实现的目标没变,只是实现方式可能有调整。
不过这种调整确实会让硬件产业链内部的价值分配发生变化。
先进封装这块,如果是原生 4-die 方案,那复杂度和定价权都集中在最顶尖的封装环节(比如超大 CoWoS 面积、良率要求极高)。改成 2-die 模块再 2+2 组装,最先进封装层的压力就会减轻一些。
板级集成这边,当 die 的聚合往上游移动时,更多集成工作就转移到了 PCB 和模块设计层面,这些环节的重要性会相对提升。
系统架构层面,重点会更多放在托盘和机架级的系统集成与扩展上,而不是单纯追求封装级的单体规模。
但关键是,如果计算托盘的规格和机架数量保持不变,我们没有理由认为系统部署规模或互连规模会缩减。所以下游硬件需求应该理解为结构性的重新分配,而不是整体萎缩。
AI的需求依旧在提高
从AI爆发以来,由于是到了最近,感觉什么东西都是缺的。
从去年美国缺电,到Memory超级大周期,到最近缺CPU、缺光纤、缺光模块的各种原材料,现在连变压器都是超级周期了,AI确实带动了整个产业链的需求。
在野村前天发布的文章中,提到:
在新增多项项目公告后(样本数量从 130 余个增至 240 余个,吉瓦级项目数量从 30 余个增至 40 余个),我们得出结论:2026 至 2030 年预测期内 AI 硬件需求将持续增长,其中2027 年景气度仍将高于 2026 年,且需求结构更优(未上市企业 OpenAI 占比下降,云服务商 CSP 占比提升)。
基于我们对 40 余个吉瓦级新建数据中心建设规划的追踪(不含另外 200 个追踪样本),我们预计 2026 年、2027 年新建数据中心需求分别为27 吉瓦、28 吉瓦,而 2025 年根据样本统计仅为 7 吉瓦;这有望推动 2026 年、2027 年CoWoS 晶圆需求分别新增 45 万片、60 万片。
北美的数据中心建设,依然在如火如荼的进行中:
知识星球
对半导体和AI产业交流,可以加下面微信,请备注姓名和所在行业。