客户端
游戏
无障碍

0

评论

收藏

分享

手机看

微信扫一扫,随时随地看

NVIDIA新品发布:GB300内存升级50%、Dynamo推理效率提升30倍

在2025年GTC开发者大会上,NVIDIA以“AI推理新时代”为核心,发布了多款硬件与软件产品组合。从新一代GPU架构BlackwellUltra到开源推理框架Dynamo,再到硅光交换机平台,NVIDIA试图通过技术迭代与生态整合,巩固其在AI算力领域的领导地位。然而,下一代产品Rubin系列的延迟交付,也为市场增添了一丝不确定性。

硬件全面升级:BlackwellUltra与Rubin系列强化算力基础

BlackwellUltra:性能跃升与液冷技术普及

NVIDIA正式推出内存增强版BlackwellUltraGPU,其DenseFP4算力较前代B200提升50%,HBM配置升级至288GBHBM3e,网络层面则采用ConnectX8网卡替代ConnectX7,进一步优化数据传输效率。BlackwellUltra的典型应用场景为GB300NVL72机架级解决方案,其AI性能较上一代提升1.5倍,适用于大模型推理与复杂任务。由于功耗与散热需求陡增,NVIDIA首次明确将液冷技术作为标配,推动数据中心基础设施升级。该产品预计于2025年下半年量产,戴尔、惠普等厂商将率先推出搭载该芯片的服务器。

Rubin系列:架构革新与交付延迟

作为Blackwell的继任者,Rubin系列采用纵向Tray结构优化机柜空间,单颗RubinUltra芯片整合4颗die,NVL576系统仅需144颗芯片即可运行。然而,产品节奏较原计划延迟约半年:首款RubinGPU推迟至2026年下半年上市,RubinUltra则延后至2027年下半年。延迟原因指向制程、封装及机柜层面的技术挑战,例如芯片集成度提升带来的热管理难题。这一调整导致市场对NVIDIA技术迭代能力的信心受挫,发布会后股价下跌3.4%。

硅光交换机:突破传统网络瓶颈

NVIDIA同步推出Spectrum-XPhotonics与Quantum-XPhotonics硅光交换机,单端口速率达1.6Tb/s,总带宽最高400Tb/s。其中,Spectrum-X提供512个800Gb/s以太网端口,Quantum-X则支持144个800Gb/sInfiniBand端口,采用200Gb/sSerDes技术提升传输效率。通过光电共封装(CPO)技术,交换机功耗降低40MW,为超大规模AI集群的扩展提供关键支持。

软件与生态布局:推理效率与AI计算场景拓展

Dynamo框架:开源推理效率革命

NVIDIA推出开源推理服务框架Dynamo,其在运行DeepSeek-R1模型时,请求处理能力提升多达30倍。性能提升源于动态GPU调度、LLM感知请求路由及KVCache跨内存卸载等机制。Dynamo已集成至NVIDIAAIEnterprise的NIM微服务,并开源至GitHub,帮助企业降低大规模模型部署门槛。黄仁勋强调,Dynamo是“AI工厂的操作系统”,通过协调数千颗GPU的通信,最大化算力资源利用率。

DGX产品线:从数据中心到桌面端

NVIDIA进一步扩展DGX系列,推出面向企业的DGXSpark和桌面级DGXStation。前者搭载GB10BlackwellSuperchip,提供128GB统一内存与4TBSSD存储,算力达1,000TOPS;后者采用GB300BlackwellUltraSuperchip,AI性能提升至20PFLOPS,配备784GB内存,可处理更高强度的训练与推理任务。此举旨在将超算能力下沉至开发者的本地环境,加速AI应用创新。

AI工厂战略:从生成Token到重塑产业

黄仁勋将BlackwellUltra定位为“AI工厂平台”,强调其核心使命是规模化生产Token(AI生成的基本单元),驱动智能代理(Agent)与物理AI(如机器人)的发展。他预测,到2028年全球数据中心投资将超1万亿美元,推理算力需求规模或超此前预估的100倍。为此,NVIDIA联合鸿海等厂商推出GB300NVL72服务器机柜,并通过CUDA-X生态覆盖物理学、生物学等领域,构建软硬一体的行业壁垒。

此次发布会在展示技术雄心的同时,也暴露出芯片迭代节奏放缓的隐忧。如何平衡性能突破与量产稳定性,将是NVIDIA未来两年的关键挑战。

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部