编辑|易瑾
北京时间3月19日凌晨,英伟达创始人兼CEO在GTC2025现场发表了主题演讲。演讲中黄仁勋宣布推出新产品“Black Ultra”,并预告了公司下一代芯片架构“Rubin”:将在2026年下半年推出下一代“Vera Rubin”,并在2027年下半年推出“Vera Rubin Ultra”。Rubin之后的下一代命名Feynman,根据英伟达的路线图,Feynman架构将于2028年登场。
在GTC上英伟达推出了一款开源的推理服务软件Dynamo。黄仁勋表示,这个名字象征着工业革命时代的“发电机”,希望在推理成为AI主流的背景下,该软件能用最低的成本和最高的效率加速AI推理模型,为部署此类模型的AI工厂最大程度地创造收入。
备受市场关注的CPO交换机也在演讲中被提及,英伟达推出了全新的NVDIA Photonics硅光子技术。据介绍,这项技术通过共封装光学(CPO)取代传统的可插拔光学收发器,使光纤直接连接到交换机,大幅减少数据中心的功耗。
基于此,英伟达推出Spectrum-X与Quantum-X硅光子网络交换机,号称是“世界上最先进的网络解决方案”,可将AI工厂扩展到数百万块GPU。预计Quantum-X InfiniBand交换机将于2025年晚些时候发布,而Spectrum-X Photonics以太网交换机将于2026年问世。
另外,黄仁勋还宣布发布了新的个人AI计算机,并将与谷歌DeepMind、迪士尼合作的机器人带到台上,进行了互动,也透露了与其他科技公司在自动驾驶、AI网络等领域的合作进展。
“去年我们在这里办GTC,就像一场摇滚演唱会,今年GTC被描述为‘AI的超级碗’。唯一的区别是,每个人都在‘AI超级碗’上获胜,因为AI能为更多行业和公司解决问题。”黄仁勋说。
这场备受瞩目的科技大会,成为3月19日社交平台上绕不开的话题,不少人用“精彩”来描述黄仁勋的演讲。然而,英伟达的股价却没给这次演讲“捧场”。演讲结束后,英伟达股价收盘跌超3.43%,报115.43美元/股。
另据财联社报道,Lopez Research创始人Maribel Lopez表示,黄仁勋说的东西早就已经被说透了。在分析师看来,黄仁勋的讲话有关键的两个要点,一是英伟达的很多重大机遇不会在短期内转化成收入来源,二是他演讲的内容基本上已经被市场预判。这意味着市场早就已经消化了英伟达未来几年的利好,这对于该公司的短期股价来说,显然不是一个好消息。
以下是黄仁勋演讲的部分内容:
Blackwell的销售情况和新架构规划
英伟达的Blackwell AI芯片是去年GTC大会的主要展示产品,其销售情况一直是业内关注的。但是由于其复杂设计的量产延迟,最近才开始大批量出货。
在2025财年第四季度财报会议上,英伟达表示:Blackwell推广期间毛利率处于70%左右的较低水平,当前最重要的任务就是加快制造的速度尽快向客户交付产品,随着Blackwell扩大量产,在今年晚些时候,英伟达的毛利率也可以恢复到70%中间水平。
在演讲时,黄仁勋提到英伟达正在全面生产Blackwell。并以四大云服务商的采购情况,佐证市场需求仍很大:2024年,全球前四大云服务商(CSP)共采购130万片英伟达Hopper架构GPU。2025年,这四大云服务商又购买了360万片Blackwell架构GPU。
与此同时,还介绍了新平台Blackwell Ultra,英伟达称,Blackwell Ultra在训练和测试时间缩放推理(Test-Time Scaling Inference)方面实现了突破,并将其称为“AI工厂平台”,将开启AI推理新时代。
据英伟达官网介绍,Blackwell Ultra基于公司一年前推出的Blackwell架构,结合了NVIDIA GB300 NVL72机架级解决方案和NVIDIA HGX B300 NVL16系统。
具体来看,Blackwell Ultra(GB300)包含GB300 NVL72机架级解决方案和HGX B300 NVL16系统。其中,GB300 NVL72将72颗Blackwell Ultra GPU与36颗基于Arm Neoverse架构的Grace CPU互联,形成一个超大规模的AI计算单元。
与GB200 NVL72相比,英伟达称GB300 NVL72的AI性能提升了1.5倍,并使AI工厂的收益机会相比Hopper平台提高了50倍。以及GB300 NVL72预计将集成至DGX Cloud,DGX SuperPOD(企业级AI基础设施)也将采用GB300 NVL72机架架构,提供开箱即用的AI工厂解决方案。
关于HGX B300 NVL16,英伟达给出的数据显示,相较Hopper代际产品,在大语言模型推理方面,推理速度提高11倍、计算能力提升7倍、内存容量扩大4倍。这些突破使其能够高效运行最复杂的AI 任务,特别适用于AI推理计算、深度推理及超大规模推理工作负载。
新的架构,黄仁勋在现场直接透露了,将在2026年下半年推出下一代“Vera Rubin”,并在2027年下半年推出“Vera Rubin Ultra”。另外黄仁勋表示在“Rubin”之后的下一代命名“Feynman”,根据英伟达的路线图,Feynman架构将于2028年登场。
多个产品亮相
芯片以外,黄仁勋宣布推出采用其芯片的新款笔记本电脑和台式电脑,其中包括两款专注于人工智能的电脑,分别名为DGX Spark和DGX Station,它们将能够运行大型人工智能模型,例如Llama或DeepSeek。
在演讲现场,黄仁勋用DeepSeek和其他大模型进行了对比演示。在回答同一个问题时,与传统的大语言模型相比,DeepSeek的推理模型需要多20倍的token和150倍的计算资源,能得出了更准确的答案。
“DeepSeek展示了模型可以更高效,但这并不意味着硬件需求减少。相反,它让所有人意识到,高效模型需要更强的计算支持。”黄仁勋指出,随着下一代模型可能包含数万亿个参数,对英伟达Blackwell NV72等系统的需求也将大幅增加。同时,在强化推理过程中,软件起到了很关键的作用。
顺势黄仁勋宣布英伟达推出AI推理服务软件Dynamo,黄仁勋把这个推理服务库比作新时代的VM ware,能够自动编排如何让AI在推理时代跑的更好,即每秒能产生更多 token。按照他的掩饰,使用Dynamo优化推理,能让 Blackwell上的DeepSeek-R1的吞吐量提升 30 倍。
黄仁勋还在现场算了笔账,他的结论是买的越多,省的越多:在同等功耗下,Blackwell的性能比Hopper高出4—5倍。在推理模型的测试里,Blackwell的性能大约是Hopper的40倍。
据悉,Dynamo的这些改进主要得益于分布化。它将LLM的不同计算阶段分配到不同GPU,使每个阶段都能独立优化,提高吞吐量并加快响应速度。“这本质上是人工智能工厂的操作系统。”黄仁勋还表示,Dynamo完全开源,支持从PyTorch到Tensor RT的所有主流框架。
在汽车领域,黄仁勋表示,英伟达已经开发了三种计算机:训练计算机、模拟计算机和机器人计算机,所有软件堆栈、模型和算法都基于这些产品。英伟达宣布与通用汽车合作,共同开发自动驾驶汽车,双方将在以上三个领域合作构建人工智能。
在机器人领域,黄仁勋宣布推出GR00T N1,这是全球首个用于通用人形机器人推理和技能的开放、完全可定制的模型框架。英伟达同时推出Simulation Frameworks,用于加速机器人开发。
此外,黄仁勋透露,英伟达、谷歌DeepMind和迪士尼合作开发了一个名为Newton的机器人平台。由英伟达、谷歌DeepMind和迪士尼合作开发的一款机器人名叫Blue,也上台和黄仁勋进行了互动。
综合自英伟达、财联社、第一财经等
推荐阅读