硅谷坐标 x Jimmy Cheng:GTC回顾-AI时代英伟达的护城河

问AI · 英伟达系统化转型如何影响产业链利润分配?

2026年3月23日,《硅谷坐标》主持人曹卿云专访了华美半导体协会副会长、Synopsys新思科技企业战略部技术战略中心负责人、前幕僚长程暨杨(Jimmy Cheng)聚焦GTC重点回顾并拆解Agent时代英伟达的战略格局。


图片

【嘉宾简介】

程暨杨 Jimmy Cheng,华美半导体协会副会长,Synopsys(新思科技)企业战略部技术战略中心负责人、前幕僚长。

  • 产业地位: 负责Synopsys新兴技术战略与中长期投资规划,深度参与驱动年营收超 10 亿美元的核心EDA业务增长。

  • 跨界背景:拥有超过 20 年半导体经验,曾任职于Oracle SPARC 处理器部门、Sun Microsystems 以及NASA喷气推进实验室 (JPL)。

  • 战略视角: 站在“从硅到系统 (Silicon-to-System)”转型的前沿,是连接英伟达底层物理极限与顶层 AI 应用架构的关键桥梁。

  • 教育背景:斯坦福大学电子工程


⬇️ 观看完整采访视频


硅谷坐标 Silicon Valley Vector

微信公众号 | 腾讯视频 | B站 | 小宇宙 | 喜马拉雅 

YouTube | Apple Podcasts | Spotify | LinkedIn | X




「详细看点」

以下为部分内容摘要。完整内容请看原版视频

01  OpenClaw之后,企业比拼的已不是算力,而是系统效率

Jimmy认为GTC最重要的信息有三点:

第一是OpenClaw。黄仁勋把它定位成Agentic AI的操作系统,成长速度已超越Linux和Kubernetes。他的判断是:以后每个CEO都会有一个OpenClaw策略,就像以前每个CEO都会有一个Linux策略一样。

第二是Inference(推理)。整场Keynote提了不下36次,专为推理设计的Vera Rubin也在此次发布,Groq 3的LPU可以和Vera Rubin协同运作。

第三是Tokenomics。Token是Agentic AI时代的货币。竞争标准不再是比Flops、TOPS,而是比Token-per-Watt每瓦特生成的Token数),这是一个升华。

图片

02  英伟达的护城河和产业链利润再分配

曹卿云英伟达把自己从AI芯片供应商提升到系统解决方案供应商,是否加强了其护城河?整个半导体产业的利润如何重新分配,议价权往哪边走?

Jimmy:NVIDIA的竞争优势已不再来自单一芯片,而是来自长期系统化布局。NVIDIA从GeForce硬件起步,延伸到CUDA软件生态、Mellanox网络能力、Omniverse应用层和Nemotron模型层,逐步完成了“芯片公司→系统公司”的升级。在AI Factory(AI工厂)框架下,竞争指标也从FLOPS和单点成本,转向Token-per-Watt(每瓦特生成的Token数)、系统协同与TCO(总拥有成本)。结果是,产业链中OEM(原始设备制造商)和供应商的议价空间被压缩,更多利润向NVIDIA集中;其高毛利和高经营利润率正是这种系统化竞争力的体现。所以新的架构都其实是增强了它的护城河。以前也许你出一个芯片10倍的速度就够了,今天你要和英伟达竞争,不是一个芯片10倍的速度就够了,你必须要比它的TCO (Total Cost of Ownership,总拥有成本)还低,你必须和它的软件兼容,所以这系统化造成了非常大的护城河的作用。

图片

英伟达现在不光是芯片公司,也是系统公司,旗下七颗芯片各司其职。以NVSwitch为例,它承担的是原本属于Cisco、HP、戴尔的网络功能。英伟达推出DGX Blueprint(MGX)之后,所有OEM(原始设备制造商)厂商必须按这套方案执行——以前还能自主设计主板,现在这个权利没有了,必须遵循英伟达DGX/MGX的方案,完全没有主动权。供应商处于非常被动的局面,做了利润很高,但始终面临英伟达做dual sourcing(双源采购)的风险。整个产业链,英伟达占到绝大部分的利润。

03  开源模型为何成为英伟达发力重点?

曹卿云: 英伟达不光大力推广开源模型生态,且自己也开发了开源模型,背后的考量是什么?

图片

Jimmy:有几个原因。

第一,给OpenAI、Anthropic增加竞争压力。 对英伟达最有利的局面是模型公司不停推出新模型,每一款新模型都带动硬件更新。他最不想看到的是模型公司放慢脚步,所以他想让创新周期更短更快。

第二,推动Agentic AI平民化。 Salesforce、ServiceNow这样的公司用开源模型,Token免费,但服务器还是要买英伟达的。开源模型是扩大硬件销售的杠杆。

第三,强化700万CUDA开发者飞轮。 通过开源模型进一步增强developer flywheel(开发者飞轮效应),把自身竞争力更加强化。

04  开源模型把芯片方向推向“定制化“(Custom Chip) 

曹卿云:开源模型的进步,会让芯片走向通用化还是定制化?

Jimmy:会加速定制化,原因有三。

第一,技术门槛降低。 模型权重公开可见,针对权重定制专属accelerator(加速器)变得更容易,各大公司都会往这个方向走。

第二,Capex倒逼自研企业用了大量开源模型后,Token免费了,但还是要大量购买服务器,最终会被Capex(资本支出)压力逼上自研芯片的路。

第三,市场变大,玩家变多。 推理市场极为庞大,市场越大玩家越多,更多startup(初创公司)会进场开发custom chip(自研芯片)。

图片

05  AI底层芯片架构的趋势-SRAM-centric的设计哲学

曹卿云:Agent元年,对底层芯片架构有什么新要求?

Jimmy: Agent是推理时代的开始,推理时代驱动的是SRAM-centric(以静态随机存取存储器为中心)的设计理念

大家熟悉的是HBM,但推理真正需要的是SRAM——量不大,但极快。推理不需要处理海量数据,需要的是极速响应,SRAM恰好满足。可以看到几个案例印证这个趋势:Cerebras的芯片大如iPad,上面大量是SRAM,拿到了OpenAI百亿美元大单;Groq的LPU每颗500MB SRAM,英伟达系统192颗LPU合计是极大量的SRAM,SRAM越多推理速度越快。底层还有3D-IC的趋势——Hopper是单芯片,Blackwell因面积过大拆成两颗,未来把SRAM直接堆叠在GPU上是下一步。

图片

06  LPU的作用

曹卿云:全球VC在过去三年投了数百家芯片初创公司,试图在推理市场分一杯羹。2025年12月英伟达收购Groq后,近三个月就推出LPU。LPU怎么工作,在英伟达生态里有什么作用? 

Jimmy: GPU强于吞吐量,弱于延迟;LPU恰好相反。LPU像出租车——很快但载人少;GPU像大巴——慢但一次载100人。 两者不是取代关系,是场景互补。从资本市场看这个趋势:2026年前三个月推理芯片VC投资已达30亿美元,而2025年全年才60亿美元——三个月已经达到去年全年的一半,增长率100%。

推理芯片的真正壁垒,不只是latency(延迟)够低,还要在软件栈、生态兼容性上能和英伟达抗衡。这对大多数初创公司来说,是比硬件本身更难跨越的门槛。

07  未来Feynman架构下SRAM发展的趋势

曹卿云:Agent 普及后,网络安全会发生哪些变化?

Jimmy: Feynman是英伟达2028年的GPU,TSMC 1.6nm制程,专为Physical AI也就是机器人场景设计。机器人场景最核心的要求是real-time inference(实时推理),要求极高。SRAM的价值在这里会进一步体现,需求量会更大。普通芯片可能已经无法满足,必须用3D折叠的方式堆叠到其他芯片上。

08  未来推理芯片的市场格局 

Jimmy: 谷歌TPU是目前整个阵营里比较成功的芯片——Gemini 3.0的所有推理和训练全部使用自家芯片,没有用GPU。这证明了英伟达是可以被战胜的。

各大厂都在加速自研。背后的根本驱动是Capex(资本支出)压力——大厂合计6500亿美元,超过一个发展中国家的GDP,其中至少50%花在芯片上。在这种体量下,自研是唯一降低成本的出路。

加上Hardware和Software co-design(软硬件协同设计)的优势——大厂有自己的模型和软件栈,芯片和模型一起设计能达到最高效率,这是英伟达给不了的。

我更倾向于多元化的格局。 模型是多元化的,芯片也会是多元化的,data center(数据中心)也会走向多元化。最近出现的开放互联协议UALink,针对英伟达封闭格式NVLink而研发,也在技术层面为多元生态铺路。

09  AI时代Synopsys护城河更强 

曹卿云:Synopsys的护城河在AI时代是变强了还是变弱了?有人说AI工具门槛变低,生产复杂IP似乎变容易了。也有人说,未来Agents会需要使用更多license,Synopsys护城河其实变强了。你怎么看?

Jimmy: 变强了。很多人有个错觉,认为IP的价值在于写出能跑的RTL代码。但IP真正的核心价值是Silicon Proven(硅验证)——这颗IP被成功流片了多少次,300次还是500次。这不是AI一天两天能降低门槛的。这次Synopsys Converge大会发布了L4 AgentEngineer,仅次于L5全自主级别,用AI Agent融合英伟达GPU辅助芯片设计。黄仁勋在我们大会上说非常兴奋——未来无数的AI Agent将利用工具,会迎来爆发性成长。

图片

10  AI会代替硬件工程师吗?

曹卿云:硬件工程师会面临和程序员一样的AI替代危机吗?

Jimmy:  短期内不会,两个根本原因。

第一,Zero Tolerance(零容忍)。 程序员写了bug(错误),第二天推个patch(补丁)就解决了。硬件工程师不一样——芯片一旦有bug(错误)就废了,研发一颗芯片动辄千万美元。Zero Tolerance决定了人类经验必须始终在环路中。

第二,人才荒。 我们行业现在严重缺人,很多岗位找不到合适的人。开发周期还在加速——Hopper到Blackwell两年,Blackwell到Rubin一年,同样的人要做双倍的活。

长期来看AI会取代一些重复性工作,但这些岗位会转移到更高价值的方向。

11  AI设计芯片VS人类设计芯片

曹卿云:未来人类设计的芯片和 AI 设计的芯片,你觉得有些什么本质的区别?你觉得未来会有一些设计出来的性能很好的芯片,但是其实人类是读不懂的

Jimmy: AI 已经在芯片设计的各个关键环节中广泛应用,包括架构设计、前端 RTL 与验证与综合、以及后端布局布线和 sign-off(签核),并在实际生产中带来了大约 10–15% 的 PPA(功耗、性能、面积)优化。目前行业正从“AI 辅助工具”迈向“Agent 化”阶段,即由 AI 承担越来越多原本依赖工程师完成的重复性和复杂劳动,未来有望实现高度自动化甚至接近全流程自主设计。然而,短期内不太可能出现完全由 AI 设计且人类无法理解的“黑箱芯片”。一方面,现有技术尚不足以支持从高层抽象需求(例如先进制程下的复杂模拟模块)直接生成可用设计;另一方面,更关键的是芯片行业对验证(verification)和可控性的要求极其严格,设计必须具备可解释性、可追踪性和可验证性,否则无法通过 EDA 流程、流片测试和量产标准。

换句话说,AI 会显著提升设计效率、缩短周期,并在局部结构上带来创新,但芯片设计的底层逻辑仍然需要被人类理解和验证,其发展方向更偏向“增强人类能力”,而非彻底取代或走向不可解释的黑箱。

12  整个半导体行业里目前最被忽视的环节是什么?

Jimmy: Physical AI(物理AI)的Sim-to-Real Gap——仿真到现实的距离。

机器人系统包含芯片、模型、传感器和执行器。Sim-to-Real Gap(仿真到现实的距离)的本质是:仿真中算好的力度和角度,机器人在真实世界里无法复现。

这里有三大挑战:实时物理引擎——必须真正理解重力等物理规律;实时传感处理——延迟必须deterministic(确定性),说3秒完成就是3秒,差一秒杯子可能已经摔在地上;实时数字孪生——在动作执行前完成100次模拟,目前还无法及时完成。

这些挑战需要Hardware(硬件)和Software(软件)深度协同设计才能突破。未来已经很近了,把Sim-to-Real Gap(仿真到现实的距离)关闭,就能到达那个未来。


关于硅谷坐标

硅谷坐标(Silicon Valley Vector):立足美国硅谷,聚焦前沿科技与科技投资趋势。在AI重新定义人类边界的时代,我们深入科技与资本的第一现场,为全球受众提供准确、深度、独立的专业报道。


微信公众号 | 腾讯视频 | B站 | 小宇宙 | 喜马拉雅 

YouTube | Apple Podcasts | Spotify | LinkedIn | X