黄仁勋CES 2025演讲实录,现场“王炸”不断,5090显卡、3000美元个人AI超算等等

北京时间1月7日上午,英伟达创始人兼CEO黄仁勋在拉斯维加斯举行的CES 2025大会上发表开幕主题演讲。



以下为黄仁勋演讲转译:



欢迎来到国际消费电子展(CES)。来到拉斯维加斯,你们激动吗?喜欢我的夹克吗?我想和加里·夏皮罗(Gary Shapiro)穿得不一样。毕竟我在拉斯维加斯。要是这不合你们的意,要是大家都反对。嗯,我觉得你们就慢慢习惯吧。我真心觉得你们得好好体会一下。再过一个小时左右,你们就会喜欢上它的。好了,欢迎来到英伟达。事实上,你们正身处英伟达的数字孪生空间,我们将带你们走进英伟达。女士们、先生们,欢迎来到英伟达。你们就在我们的数字孪生空间里。这里的一切都是由人工智能生成的。


这是一段非凡的旅程,非凡的一年,它始于1993年,随着NV1的诞生拉开帷幕。

图片


我们想要制造出能完成普通电脑无法完成任务的计算机。而NV1让在个人电脑中拥有一台游戏机成为可能。我们的编程架构叫做Uda(后来才加上了字母C),Uda即统一设备架构。Uda的首位开发者以及首个基于Uda运行的应用程序是世嘉(Sega)的《VR战士》。六年后,也就是1999年,我们发明了可编程图形处理器(GPU),从此开启了长达20多年,甚至更久的,这款名为GPU的卓越处理器的惊人发展历程。它让现代计算机图形技术成为可能。如今,30年过去了,世嘉的《VR战士》画面已完全达到电影级效果。

图片


这就是即将推出的全新《VR战士》项目。我已经迫不及待了。简直不可思议。1999年之后又过了六年,我们发明了CUDA,以便能够向众多算法解释或展现我们GPU的可编程性。这能让我们从中受益。

起初,CUDA很难解释清楚,事实上,这花了好几年时间,大概六年左右。不知怎的,六年后,也就是大约2012年,亚历克斯·克肖夫斯基(Alex kerschowski)、伊利亚·苏斯克韦尔(Ilya suske ver)和杰夫·辛顿(Jeff Hinton)发现了CUDA,并用它来处理Alexnet,之后的故事大家就都知道了。

自诞生以来,人工智能一直在以惊人的速度发展。从感知型人工智能(我们现在能用它理解图像、文字和声音)到生成型人工智能(我们能用它生成图像、文字和声音),再到智能体人工智能(能够感知、推理、规划和行动的人工智能)。接下来的阶段,也就是今晚我们会谈到的一部分内容——物理人工智能。2012年,然后神奇地,到了2018年,发生了一件相当了不起的事情。

谷歌发布了名为BERT的Transformer模型,人工智能领域由此真正腾飞。如你们所知,Transformer彻底改变了人工智能的格局。事实上,它彻底改变了整个计算领域的格局。我们充分认识到,人工智能不仅仅是一个带来新商业机遇的新应用,更重要的是,由Transformer驱动的机器学习将从根本上改变计算的运作方式。如今,从在CPU上手动编写指令来创建人类使用的软件工具,到技术堆栈的每一个层面都发生了革命性的变化。我们现在有了机器学习技术,它可以创建和优化在GPU上运行的神经网络,并生成人工智能。在短短12年的时间里,发生了令人难以置信的变革。

如今,我们几乎能够理解任何形式的信息。想必你们都见过文本、图像、声音之类的信息。但我们不仅能理解这些,我们还能理解氨基酸、理解物理学知识,我们能解读它们,也能生成它们。相关应用简直无穷无尽。实际上,几乎你们看到的任何人工智能应用,只要问三个基本问题:它从哪种形式的输入信息中学习?它将信息转化成了哪种形式?它又生成了哪种形式的信息?那么几乎每一个应用都能据此推断出来。所以当你们看到一个又一个由人工智能驱动、原生支持人工智能的应用时,其核心就蕴含着这个基本概念。

机器学习已经改变了每个应用的构建方式、计算的实现方式,以及更多的可能性。在很多方面,GeForce(英伟达旗下显卡品牌)助力了人工智能的发展,GeForce让人工智能走向大众。而现在,人工智能又反过来革新了GeForce。有太多事情离不开人工智能。现在就让我给你们展示一些例子。

那就是实时计算机图形技术。

没有任何计算机图形学研究人员或计算机科学家会告诉你们,我们现在能够对每个像素进行光线追踪。光线追踪是对光线的模拟。你们看到的几何图形数量多得惊人。如果没有人工智能,这是绝对不可能实现的。

我们做了两件至关重要的事情。当然,我们使用了可编程着色和光线追踪加速技术来生成极其精美的像素。

然后,我们让人工智能根据这些像素生成大量其他像素。它不仅能够根据空间位置生成其他像素,因为它知道颜色应该是什么样的,而且它还在英伟达的超级计算机上进行过训练。因此,在GPU上运行的神经网络能够推断和预测我们尚未渲染的像素。

我们不仅能做到这些,这就是深度学习超级采样技术(DLSS)。最新一代的DLSS还能生成额外的帧。它可以预测未来,每计算一帧就能额外生成三帧。你们看到的内容,如果我说有四帧,那是因为我们渲染一帧,同时生成三帧。如果我设置为全高清4K分辨率下的四帧,那就大约有3300万个像素。在这3300万个像素中,我们只计算了200万个。我们能够通过可编程着色器、光线追踪引擎计算200万个像素,然后让人工智能预测其余的3300万个像素,这绝对是个奇迹。正因如此,我们能够以极高的性能进行渲染,因为人工智能减少了大量的计算量。

当然,要实现这一点需要进行大量的训练。但一旦训练完成,生成过程就会极其高效。所以这就是人工智能令人惊叹的能力之一。这也是为什么会有这么多令人惊叹的事情发生。

我们借助GeForce推动了人工智能的发展,而现在人工智能正在革新GeForce。今天,我们要发布下一代产品——RTX Blackwell系列,让我们一起来看看。

就是它,我们全新的GeForce RTX 50系列Blackwell架构。这款GPU性能超强,拥有920亿个晶体管、4000个张量核心、4 petaflops的人工智能算力,比上一代Ada架构高出三倍。我们需要这些强大的性能来生成我给你们展示的那些像素。它具备380 teraflops的光线追踪性能,这样我们就能为需要计算的像素生成你们所能想象到的最精美的图像。当然,还有125 teraflops的并发着色性能,以及性能相当的整数运算单元,两个双精度着色器,一个用于浮点运算,一个用于整数运算。搭载美光(micron)的G7显存,带宽高达1.8 TB每秒,是上一代的两倍。而且我们现在能够将人工智能工作负载与计算机图形工作负载混合处理。

这一代产品的一个惊人之处在于,可编程着色器现在也能够处理神经网络。因此,着色器能够承载这些神经网络,结果就是,我们发明了神经纹理压缩和神经材质着色技术。正因如此,你们才能看到这些美得不可思议的图像,而这只有通过利用人工智能学习纹理和压缩算法才能实现,最终获得非凡的效果。

好了,这就是全新的RTX Blackwell 50和90系列。现在呢?就连机械设计也是个奇迹。看看这个,它有两个风扇。整个显卡就像一个巨大的风扇,你们知道吗?那么问题来了,这款显卡真有这么大吗?其电压调节设计堪称一流,设计非常出色,工程团队干得很棒,就是这样,谢谢大家。

好了,这些就是具体参数。那么它的表现如何呢?这是RTX 4090。我知道,我知道,你们很多人都有一块。我了解。看,它售价1599美元。这可能是你们能做出的最棒的投资之一。花1599美元,把它装进你们价值1万美元的个人电脑娱乐控制中心,难道不是吗?别跟我说不是这样,别不好意思。它配备液冷散热,到处都是酷炫的灯光。出门的时候你们还会把它锁好,它就是现代家庭影院的核心,非常合理。现在,只需1500美元到1599美元,你们就能升级到这款产品,让性能大幅提升。现在,Blackwell系列的RTX 5070只需549美元,就能达到4090的性能。

图片


没有人工智能,这一切都不可能实现。没有4000个张量核心、4 petaflops的人工智能算力,没有G7显存,就无法实现5070达到4090的性能,售价还只要549美元。这就是整个系列,从5070一直到5090,5090的性能是4090的两倍。当然,我们从1月份开始就会大规模供货。这太不可思议了。而且我们还成功地将这些高性能GPU装进了笔记本电脑。这款售价1299美元的570笔记本电脑就拥有490的性能,我想这里应该有一台,让我给你们展示一下。看看这个东西。大家来了解一下。毕竟市场需求很大。

女士们、先生们,杰宁·保罗(Jenine Paul)。那么你们能想象吗?我们有这么一款令人惊叹的Blackwell显卡,我要把它缩小并装进笔记本电脑里。这听起来可行吗?嗯,如果没有人工智能,这是做不到的,原因在于我们使用张量核心生成大部分像素,所以只对需要的像素进行光线追踪,而其他所有像素都通过人工智能生成。因此,其能源效率高得惊人。

计算机图形技术的未来是神经渲染,即人工智能与计算机图形技术的融合,而真正令人惊叹的是……

哦,来了,谢谢。这真是一场充满活力的主题演讲。真正令人惊叹的是我们即将推出的这一系列GPU。而且,5090将能够装进一款轻薄笔记本电脑。上一款笔记本电脑的厚度是14.9毫米。还有5080、5070 Ti和570。好了,女士们、先生们,这就是RTX Blackwell系列。

GeForce将人工智能推向世界,让人工智能得以普及。现在人工智能又回来革新了GeForce。让我们来聊聊人工智能。让我们去英伟达的其他地方看看。

这里就是办公室,就是英伟达的总部。好了,让我们来谈谈人工智能。整个行业都在竞相推动人工智能的规模化发展。

人工智能和扩展定律是一个强大的模型。这是一条经过几代研究人员和企业观察并验证的经验定律。扩展定律表明,你拥有的训练数据越多,模型规模越大,投入的计算资源越多,那么你的模型就会变得越有效、越强大。扩展定律一直在发挥作用。真正令人惊叹的是,现在我们正朝着这个方向发展,而且互联网每年产生的数据量大约是上一年的两倍。我认为在未来几年里,互联网产生的数据量将超过人类有史以来产生的所有数据量。所以我们仍然在产生海量的数据,而且这些数据正变得越来越多样化,涵盖视频、图像和声音等多种形式。所有这些数据都可以用来训练人工智能的基础知识和核心知识。但实际上,现在还出现了另外两条扩展定律,而且它们在某种程度上是很直观的。

第二条扩展定律是训练后扩展定律。训练后扩展定律运用诸如强化学习、人类反馈等技术手段。

人工智能根据人类的查询生成答案。然后,人类当然会给出反馈。实际情况比这要复杂得多。但拥有大量高质量提示的强化学习系统会促使人工智能改进其技能。它可以针对特定领域微调自身技能,比如在解决数学问题、推理等方面表现得更好等等。这就好比你在学校学习完之后,有一位导师或教练给你反馈。所以你接受测试,得到反馈,然后提升自己。我们还有强化学习、人工智能反馈,以及合成数据生成技术。

这些技术手段……

有点类似于,如果你愿意这么理解的话,自我练习。你知道某个特定问题的答案,然后不断尝试,直到答对为止。所以人工智能可能会遇到一个非常复杂且具有挑战性的问题,这个问题在功能上是可验证的,并且我们知道它的答案,也许是证明一个定理,也许是解决一个几何问题。这些问题会促使人工智能给出答案。

通过强化学习,人工智能就能学会如何提升自己。这就叫做训练后扩展。训练后扩展需要大量的计算,但最终会产生令人惊叹的模型。

现在我们有了第三条扩展定律,第三条扩展定律与所谓的测试时扩展有关。测试时扩展基本上是指当你使用人工智能时,人工智能现在有能力采用不同的资源分配方式,而不是改进其参数。现在它专注于决定使用多少计算资源来生成它想要给出的答案。

推理是思考这个问题的一种方式。深入思考也是一种思考方式。你可能不会直接得出结论或给出一次性答案,而是对问题进行推理。你可能会将问题分解为多个步骤,可能会产生多个想法,然后你的人工智能系统会评估你生成的这些想法中哪一个是最好的。也许它会逐步解决问题等等。事实证明,测试时扩展非常有效。

你们见证了这一系列技术的发展,随着我们看到从ChatGPT到0.1、0.3版本,再到Gemini Pro等取得的惊人成就,所有这些系统都在一步一步地经历预训练、训练后扩展和测试时扩展的过程。

当然,我们所需的计算量是巨大的。实际上,我们希望社会有能力扩展计算量,以产生越来越多新颖且更强大的智能。智能当然是我们拥有的最有价值的资产,它可以用于解决许多极具挑战性的问题。

因此,扩展定律推动了对英伟达计算产品的巨大需求。它也推动了对我们称之为Blackwell的这款惊人芯片的巨大需求。

让我们来看看Blackwell。嗯,Blackwell已经全面投产。它的表现令人难以置信。首先,现在几乎每一家云服务提供商都有运行中的相关系统。我们这里有来自大约15家计算机制造商的系统。它有大约200种不同的SKU(库存保有单位),200种不同的配置。有液冷、风冷版本,x86架构、英伟达自研CPU版本,支持36条或72条NVLink连接等等,有各种各样的系统类型,这样我们就能满足全球几乎每一个数据中心的需求。嗯,这些系统目前正在约45家工厂生产。
这表明了人工智能的普及程度,以及整个行业在这种新型计算模式下对人工智能的积极投入。我们如此大力推动的原因是,我们需要更多的计算能力,而且很明显……杰宁?

你们知道吗?很难说,你肯定不想把手伸进一个黑暗的地方。等等,这是个好主意吗?好吧。

等等……等等。我原以为我够格。显然你们不这么认为。好吧,这是我的展示环节。这是GB 200 Mv link 72,一款NVLink系统。它重达1.5吨,大约有60万个零部件,差不多相当于20辆汽车,功率为120千瓦。它背后有一个背板将所有这些GPU连接在一起。有两英里长的铜缆,5000根线缆。它正在全球45家工厂生产。我们制造它们、进行液冷处理、测试、拆解,然后将零部件运往数据中心,因为它重达1.5吨。我们在数据中心外重新组装并安装。

制造过程非常复杂,但我们这么做的目标是,扩展定律对计算的需求非常强烈,Blackwell相较于我们的上一代产品,每瓦特性能提升了四倍,每美元性能提升了三倍。这基本上意味着,在一代产品的更迭中,我们将训练这些模型的成本降低了三分之一。或者说,如果你想将模型规模扩大三倍,成本也差不多。但重要的是……

当我们使用ChatGPT、Gemini或者未来使用手机时,我们都在使用这些系统生成的令牌。几乎所有这些应用都将消耗这些人工智能令牌。而这些人工智能令牌正是由这些系统生成的。每个数据中心都受到电力的限制。所以如果Blackwell的每瓦特性能是上一代的四倍,那么数据中心能够产生的收入、能够开展的业务量也会增加四倍。所以如今这些人工智能工厂系统真的就像工厂一样。

现在,我们所有这些工作的目标是打造一颗超级芯片。我们所需的计算量真的非常惊人。如果我们要把这个系统做成一颗芯片,瞧,就是这样,抱歉,伙计们,你们看到了吧?这里的灯光很酷。如果真要做成一颗芯片,显然它得有晶圆那么大。但这还没考虑良品率的影响,实际上它可能得有正常尺寸的三到四倍大。但我们现在所拥有的,是 72 颗 Blackwall GPU,共 144 个芯片裸片。

这一芯片系统的算力达到 1.4 exaflop,是世界上最大、最快的超级计算机。就在最近,这个占据整个房间的超级计算机才刚刚突破 1 exaflop,而现在它拥有 1.4 exaflop 的 AI 浮点运算性能。它配备 14 TB 内存。但令人惊叹的是,其内存带宽达到每秒 1.2 PB。这基本上相当于目前全球互联网的总流量。也就是说,全球的互联网流量都在通过这些芯片进行处理,明白了吧?

我们总共有 1130 万亿个晶体管,2592 个 CPU 核心,还有大量的网络组件。这些是我们的 Kex 网络芯片,这些是 Mv 链路。我们本想不提 Mv 链路背板,但这是没法回避的。还有这些都是 HBM 显存,共 12 - 14 TB 的 HBM 显存。

这就是我们正在努力实现的目标,这就是奇迹所在。这就是 Blackwall 系统的奇迹。这里的 Blackwall 芯片裸片,它是世界上制造出的最大的单芯片。然而,除此之外,真正的奇迹在于这是 Grace Blackwell 系统。当然,我们所有这些努力的目标是…… 谢谢,多谢。哎呀,有椅子吗?我能坐一会儿吗?

能给我来瓶米狮龙超爽啤酒(Michelob Ultra)吗?

我们怎么会在米狮龙超爽啤酒体育场呢?这就好比你来英伟达却没有 GPU 可用一样不可思议。我们需要巨大的计算能力,因为我们想要训练越来越大的模型。过去,推理过程往往只是一次推断。但在未来,人工智能将能够与自身进行交互。它将能够思考、进行内部反思和处理。

所以如今,当令牌生成并展示给你时,只要每秒能生成 20 或 30 个令牌,基本上就和人们的阅读速度一样快了。然而,在未来,就像现在的 GPT 0.1、Gemini Pro 以及新的 0.1、0.3 模型,它们会进行自我交流、反思和思考。可以想象,未来令牌的处理速度需求会极高。所以我们需要大幅提高令牌生成速度,同时还要大幅降低成本,这样才能保证高质量,让客户承担的成本持续降低,人工智能也能继续实现规模化发展。
这就是我们的根本目标。我们创建 Mv 链路的原因也在于此。在企业领域,智能体人工智能(Agentic AI)正在发生一些非常重要的事情。智能体人工智能就是测试时扩展的一个完美示例。

智能体人工智能是一个模型系统。其中一部分负责理解、与客户或用户进行交互。有些部分可能负责从存储中检索信息。像 RAG(检索增强生成)这样的语义人工智能系统,可能会访问互联网、研究 PDF 文件,它可能会使用各种工具,比如计算器,还可能会使用生成式人工智能来生成图表等。它会把你提出的问题逐步分解,然后通过这些不同的模型进行迭代处理。在未来,为了回应客户,人工智能不再是简单地一问一答,当你提出一个问题时,背后会有大量模型协同工作。所以,未来测试时用于推理的计算量将会急剧增加。因为我们想要获得越来越好的答案,为了帮助行业构建智能体人工智能,我们的市场策略不是直接面向企业客户。我们的市场策略是与软件开发人员和 IT 生态系统合作,集成我们的技术,以实现新的功能,就像我们在 CUDA 生态系统中所做的那样。现在我们希望在 AI 库方面也能如此。就像过去的计算模型拥有用于计算机图形、线性代数或流体动力学的 API 一样,未来在这些优秀的加速库之上,我们还将拥有 AI 库。

为了帮助生态系统构建智能体人工智能,我们推出了三项成果。英伟达 Nims,本质上是打包好的 AI 微服务。它整合了所有这些非常复杂的内容,比如 CUDA、DNN 库(cuDNN)、CUDA 数学库(cuBLAS)、张量 RT(TensorRT)、Triton 推理服务器等各种复杂软件以及模型本身。我们对其进行打包、优化,并将它们放入容器中,这样你就可以在任何需要的地方使用。我们拥有用于视觉、语言理解、语音、动画、数字生物学的模型,而且还有一些令人兴奋的用于物理人工智能的新模型即将推出。由于英伟达的 GPU 现在在每个云平台都能使用,并且在每个原始设备制造商(OEM)的产品中也都有应用,所以这些 AI 模型可以在任何云环境中运行。你可以直接获取这些模型,将其集成到你的软件包中,创建按计划运行的 AI 智能体,或者是服务智能体,又或者是适用于思爱普(SAP)系统的智能体,然后将它们部署给客户,并在客户希望的任何地方运行该软件。

下一层是我们称之为英伟达 Nemo 的产品。Nemo 本质上是一个数字员工入职和培训评估系统。在未来,这些 AI 智能体本质上就是与你的员工并肩工作的数字劳动力,代表你为你做事。所以,就像你招聘员工一样,你需要将这些专业智能体引入你的公司。我们有不同的库来帮助这些 AI 智能体针对你公司的语言特点进行训练。也许你公司的词汇是独特的,业务流程不同,工作方式也不一样,所以你要给它们展示产品应该是什么样的示例,它们会尝试生成相应内容,然后你给予反馈,接着进行评估等等。而且,你要为它们设定约束条件。你要告诉它们哪些事情不能做,哪些话不能说,我们甚至会给它们提供某些特定信息的访问权限,明白了吧?整个这个数字员工流程就叫做 Nemo。

在很多方面……

未来,每个公司的 IT 部门将会成为 AI 智能体的人力资源部门。如今,他们管理和维护来自 IT 行业的大量软件,未来他们将维护、培养、引入并改进大量数字智能体,并将它们提供给公司使用。明白吗?所以,你们的 IT 部门将会有点像 AI 智能体的人力资源部门。除此之外,我们还提供了大量蓝图供生态系统利用。这些都是完全开源的,所以你可以获取并修改这些蓝图,我们有适用于各种不同类型智能体的蓝图。

今天,我们还要宣布一件非常酷且我认为相当巧妙的事情。

我们要发布基于 Llama 的一整个系列模型,即英伟达 Lalama Nemotha 语言基础模型。Lalama 3.1 堪称一个现象级产品,从 Meta 下载量达到 65 万次左右。它已经衍生出约 6 万个其他不同的模型。几乎可以说,正是因为它,每个行业的几乎每一家企业都被带动起来,开始投身于人工智能领域的工作。

我们所做的是,意识到 Lalama 模型其实可以针对企业应用进行更好的微调。所以我们运用自身的专业知识和能力对它们进行了微调,并将其转化为 Lalama Nemotha 系列开源模型。

有一些小型模型,响应速度极快,我们称之为 Super Lalama Nemotha Supers。它们基本上就是主流版本的模型或者超小型模型。超大型模型可以用作其他众多模型的教师模型。它可以作为奖励模型、评估模型,判断其他模型给出的答案是否正确,基本上就是给其他模型提供反馈。它还可以通过多种方式进行知识蒸馏。基本上,它是一个教师模型、知识蒸馏模型,规模很大,能力很强。现在所有这些模型都可以在网上获取。

这些模型非常出色,在聊天排行榜、指令排行榜、检索排行榜上均名列前茅。对于全球 AI 智能体所需的各种不同功能来说,这些模型都将是非常优秀的选择。
我们也在与生态系统展开合作。我们所有的英伟达 AI 技术都正在集成到 IT 行业中。我们有很棒的合作伙伴,并且在 ServiceNow、思爱普(SAP)、西门子(Siemens)的工业 AI 领域都有出色的合作成果。铿腾电子(Cadence)也在做着很棒的工作,微软 Office 也有不错的成果。我对我们与 Perplexity 的合作成果感到非常自豪。如你们所知,他们彻底革新了搜索技术。真的是非常棒的成果。

代码生成(Codium),对于全球的每一位软件工程师来说,这将是下一个巨大的 AI 应用领域。下一个巨大的 AI 服务领域就是软件编码。全球大约有 3000 万软件工程师。每个人都将拥有一个软件助手来帮助他们编写代码。如果没有,显然你的工作效率会大大降低,写出的代码质量也会较差。全球还有 10 亿知识工作者。很明显,AI 智能体很可能会成为下一个机器人行业,并且有望带来数万亿美元的商机。

那么,让我给你们展示一些我们创建的蓝图,以及我们与合作伙伴在这些 AI 智能体方面所做的工作。AI 智能体是为我们工作并与我们协作的新型数字劳动力。AI 智能体是一个模型系统,它能够对问题进行推理,将其分解为任务,检索数据或使用工具来生成高质量的响应。英伟达用于构建智能体人工智能的模块,包括 Nem precisa ined 模型和 Nemo 框架,让组织能够轻松开发 AI 智能体,并将其部署到任何地方。我们会像培训员工一样,让我们的 AI 智能体熟悉公司的工作方法,使它们成为特定领域的任务专家。让我为数十亿知识工作者和学生展示 4 个例子。

AI 研究助理智能体能够处理诸如讲座、期刊、财务报告等文档,并通过结合单元回归模型和扩散模型生成交互式播客,以便于学习;Cord 能够将全球天气预报从 25 公里分辨率下采样到 2 公里。像在英伟达的开发人员,利用 AI 智能体持续扫描软件以查找漏洞,并提醒开发人员需要采取的行动。虚拟实验室 AI 智能体帮助研究人员设计和筛选数十亿种化合物,以比以往更快的速度找到有前景的药物候选物。基于英伟达 Metropolis 蓝图构建的视频分析 AI 智能体,整合了英伟达 Cosmos、Nematologist、视觉语言模型、Lama Nematologist、LLDS 和 Nemo 检索器。Metropolis 智能体分析来自数十亿个摄像头的内容,每天生成 10 万 PB 的视频数据。它们支持交互式搜索、摘要生成和自动报告,并有助于监控交通流量,标记拥堵或危险情况。在工业设施中,它们监控流程并生成改进建议。

Metropolis 智能体集中处理来自数百个摄像头的数据,并在发生事件时能够重新调度工人或机器人。对于每个组织来说,人工智能时代已经到来。

那是一场棒球比赛中的第一次投球,并非由人工智能生成。我只是觉得你们都没什么兴趣。

好吧,人工智能是在云端创建并为云端服务的。我正在为云端创建一个环境,以便在手机上享受人工智能。当然,这非常完美。很快,我们就会拥有一个始终陪伴着你的持续运行的人工智能。当你使用那些 Meta 眼镜时,你当然可以指向某个东西、看着某个东西,并询问你想要的任何信息。所以人工智能在云端非常完美,它在云端创建,在云端也能发挥出完美的作用。然而,我们非常希望能够将人工智能带到任何地方。

我已经提到过,你可以在任何云平台使用英伟达 AI,你也可以将它部署在自己的公司内部。但我们最想做的事情之一是也将它应用到我们的个人电脑上。如你们所知,Windows 95 彻底革新了计算机行业。它借助这套全新的多媒体服务,改变了应用程序的创建方式,成就了永恒的经典 Windows 95。

图片


当然,这种计算模式并不完全适合人工智能。所以我们希望在未来,你的人工智能基本上能成为你的 AI 助手。而且除了现有的 3D API、声音 API 和视频 API 之外,你还将拥有生成式 API,比如用于 3D 的生成式 API、用于语言的生成式 API、用于声音的生成式人工智能等等。我们需要一个系统,既能实现这些功能,又能充分利用在云端的大量投入。

世界不可能再创造出另一种编程 AI 模型的方式了。所以如果我们能找到一种方法,让 Windows 个人电脑成为世界级的 AI 个人电脑,那就太棒了。结果发现答案就是 Windows, Windows 子系统 Linux 2(Windows WSL 2),它基本上是在一个操作系统内运行两个操作系统,运行得非常完美。它是为开发人员开发的,这样你就能够获得相应权限。原生的 WSL 2 已经针对云原生应用进行了优化,并且非常重要的是,它已经针对 CUDA 进行了优化,所以 WSL 2 默认支持 CUDA 生态系统。因此,我向你们展示的所有英伟达 Nims、英伟达 Nemo,以及我们在ai.nvidia.com上开发的蓝图,只要你的电脑满足条件,只要你能够适配相应模型,无论是视觉模型、语言模型、语音模型,还是动画、数字人类模型等各种不同类型的模型,都将非常适合你的个人电脑。你下载后,它应该就能直接运行。所以我们的重点是将搭载 Windows WSL 2 的 Windows 个人电脑打造成一个一流的目标平台,并且我们会一直支持和维护它。这对于世界各地的工程师和开发人员来说是一件非常了不起的事情。让我给你们展示一下我们能用它做些什么。

这是我们刚刚为你们制作的一个蓝图示例。

生成式人工智能能够根据简单的文本提示合成令人惊叹的图像,然而仅用文字来控制图像合成可能具有挑战性。借助英伟达 Nim 微服务,创作者可以使用简单的 3D 对象来引导 AI 图像生成。让我们看看概念艺术家如何利用这项技术来设计场景外观。他们首先布置手工创建或由 AI 生成的 3D 资产,然后使用诸如 Flux 这样的图像生成 Nim 服务,创建符合该 3D 场景的视觉效果。通过添加或移动对象来优化构图,改变相机角度以获得完美的拍摄视角,或者用新的提示重新构思整个场景。在生成式人工智能和英伟达 Nim 的协助下,艺术家能够快速实现自己的构想。

为你的个人电脑提供英伟达 AI?全球有数亿台运行 Windows 系统的个人电脑。所以我们可以让原始设备制造商(OEM)为这些电脑做好迎接 AI 的准备。我们合作的所有个人电脑制造商,基本上都是全球领先的个人电脑厂商,它们都将为自己的电脑适配这一技术栈。所以 AI 个人电脑即将走进千家万户。

接下来的内容也很棒。

好的,让我们来谈谈物理人工智能。说到 Linux,我们就来聊聊物理人工智能。想象一下,对于大型语言模型,你在左侧输入上下文和提示,它会一次生成一个令牌来产生输出。基本上就是这样工作的。令人惊叹的是,中间的这个模型规模相当大,拥有数十亿个参数。上下文长度也非常长,因为你可能会决定加载一个 PDF 文件。就我而言,在提问之前,我可能会加载好几个 PDF 文件。这些 PDF 文件会被转化为令牌。

Transformer 的基本注意力特性是让每个令牌都能找到与其他所有令牌的关系和相关性。所以你可能会有数十万个令牌,计算负载会呈二次方增长。它会将所有参数、输入序列通过 Transformer 的每一层进行处理,然后生成一个令牌。这就是我们需要 Blackwall 的原因,当前令牌生成完成后,会将其放入输入序列,然后据此生成下一个令牌,如此一次生成一个。这就是 Transformer 模型。这也是为什么它虽然极其有效,但计算量却如此巨大的原因。

如果输入的不是 PDF 文件,而是你周围的环境;如果不是提出一个问题作为提示,而是发出一个请求,比如 “去那边把那个盒子拿回来”;并且生成的不是文本令牌,而是动作令牌,那会怎么样呢?

我刚才描述的对于未来的机器人技术来说是非常合理的设想,而且这项技术已经近在咫尺,但我们需要做的是创建一个有效的世界模型,这与像 GPT 这样的语言模型不同。

这个世界模型必须理解世界的语言,必须理解物理动力学,比如重力、摩擦力和惯性。它必须理解几何和空间关系,必须理解因果关系。如果你掉落一个东西,它会掉到地上;如果你戳它一下,它会翻倒。它还必须理解物体恒存性。如果你把一个球滚到厨房柜台的另一边,球并不会进入另一个量子宇宙,它仍然在那里。

所以,所有这些我们凭直觉就能理解的知识,如今大多数模型却很难掌握。因此,我们希望创建一个世界模型。我们需要一个世界基础模型。今天,我们要宣布一件非常重大的事情,我们要推出英伟达 Cosmos,这是一个旨在理解物理世界的世界创建模型。要真正理解它,唯一的办法就是亲眼看看。让我们展示一下。

人工智能的下一个前沿领域是物理人工智能。AI 模型的性能直接与数据可用性相关,但获取、整理和标注物理世界的数据成本高昂。英伟达 Cosmos 是一个世界基础模型开发平台,旨在推进物理 AI 的发展。它包含自回归世界基础模型、扩散模型、世界基础模型、先进的分词器,以及一条英伟达 CUDA 加速的 AI 数据处理管线。Cosmos 模型能够摄取图像或视频输入,并将虚拟世界状态生成为视频。Cosmos 的生成过程优先考虑视觉(V)和机器人应用场景的独特需求,比如真实世界环境、光照和物体恒存性。开发者可以使用英伟达 Omniverse 构建基于物理原理、地理空间精确的场景,然后将 Omniverse 渲染结果输入 Cosmos,Cosmos 会生成基于物理且逼真的合成数据。

无论是多样的物体还是环境,诸如天气、一天中的不同时段或边缘情况等条件,开发者都可以使用 Cosmos 生成用于强化学习 AI 反馈的世界,以改进策略模型,或者测试和验证模型性能。即使是跨多传感器视角,Cosmos 也能实时生成令牌,将预见能力和多元宇宙模拟的强大功能带入 AI 模型,生成每一种可能的未来,帮助模型选择正确的路径。英伟达正与全球开发者生态系统合作,助力推进下一波物理 AI 浪潮。

英伟达 Cosmos,英伟达 Cosmos,英伟达 Cosmos,世界上首个世界基础模型,它基于 2000 万小时的视频进行训练。

这 2000 万小时的视频聚焦于物理动态事物。比如动态的自然场景、人类行走、手部移动、操作物体等,还有快速的相机移动。重点不在于生成创意内容,而是教会 AI 理解物理世界。基于此物理 AI,我们可以开展许多下游应用。

我们可以进行合成数据生成以训练模型。可以对其进行提炼,进而为机器人模型奠定基础。它可以生成多个基于物理且合理的未来场景,就像奇异博士(Doctor Strange)那样。因为这个模型理解物理世界,所以它当然可以做到。你们已经看到它生成的大量图像。该模型理解物理世界,它当然也可以进行视频字幕生成,并且生成的字幕和视频可用于训练大型语言模型、多模态大型语言模型。所以,你可以利用这个基础模型来训练机器人,以及大型语言模型。

这就是英伟达 Cosmos。

该平台拥有用于实时应用的自回归模型、用于高质量图像生成的扩散模型、这个令人惊叹的分词器(用于学习现实世界的词汇),以及一条数据处理管线。这样,如果你想基于自己的数据进行训练,考虑到涉及的数据量巨大,我们为你从头到尾加速了整个数据处理过程。所以,这是世界上第一条由 CUDA 和 AI 双重加速的数据处理管线。所有这些都是 Cosmos 平台的一部分。今天我们宣布,Cosmos 是开放许可的,可在 GitHub 上获取。

我们希望,我们希望这一刻,并且 Cosmos 有适用于快速模型的小型版本、主流模型的中型版本,以及作为知识传递模型的大型教师版本。我们真心希望,Cosmos 世界基础模型的开放,能像 Lalama 3 对企业 AI 所做的那样,为机器人和工业 AI 领域带来积极影响。

当你将 Cosmos 与 Omniverse 连接起来时,神奇的事情就发生了。根本原因在于,Omniverse 是一个基于物理原理的系统,它是算法物理、有原则的物理模拟系统,是一个模拟器。当你将其与 Cosmos 连接,它能提供基础真实数据,以此控制和约束 Cosmos 的生成。结果是,从 Cosmos 输出的内容都基于真实数据。

这与将大型语言模型连接到 RAG(检索增强生成)系统的理念完全相同。你希望 AI 的生成基于真实数据。所以,两者的结合为你带来了一个基于物理模拟、物理真实的多元宇宙生成器,其应用和用例真的非常令人兴奋。

当然,对于机器人和工业应用来说,这一点非常明确。Omniverse 加 Cosmos 代表了构建机器人系统所需的第三类计算机。每个机器人公司最终都必须构建 3D 计算机。机器人系统可以是工厂、汽车或机器人。

你需要三台基础计算机。一台,当然是用于训练 AI,我们称之为 DGX 计算机。另一台,在训练完成后用于部署 AI,我们称之为 AGX,它可以安装在汽车、机器人、自主移动机器人(AMR)、体育场等设备中,这些计算机位于边缘且具备自主性。但要连接这两者,你需要一个数字孪生。这就是你们之前看到的所有模拟。数字孪生是经过训练的 AI 进行实践、优化的地方,在这里可以进行合成数据生成、强化学习、AI 反馈等。所以它是 AI 的数字孪生。这三台计算机将交互协作。英伟达针对工业领域的策略,也是我们谈论了一段时间的内容,就是这个三台计算机的解决方案,即英伟达机器人技术方案。

让我给你们举三个例子。好的,第一个例子是我们如何将这一切应用于工业可视化。世界上有数百万家工厂、数十万个仓库。这基本上是价值 50 万亿美元的制造业的支柱。未来,所有这些都必须实现软件定义,都必须实现自动化,并且都将融入机器人技术。

我们正在与全球领先的仓库自动化解决方案提供商 Keyon 以及全球最大的专业服务提供商埃森哲(Accenture)合作。他们在数字制造领域有着重点布局,我们正携手打造一些非常特别的东西,稍后我会展示给大家。但我们的市场推广方式与我们所有其他软件平台和技术平台基本相同,都是通过开发者和生态系统合作伙伴进行。而且连接到 Omniverse 的生态系统合作伙伴数量在不断增加。原因很明显,每个人都希望实现行业未来的数字化。在这 50 万亿美元的全球 GDP 中,存在着大量的浪费和自动化机遇。让我们来看看我们与 Keyon 和埃森哲合作的这个例子。

供应链解决方案公司 Keyon、全球专业服务领导者埃森哲和英伟达正将物理 AI 带入价值 1 万亿美元的仓库和配送中心市场。

管理高性能仓库物流需要应对由不断变化的变量所影响的复杂决策网络。这些变量包括每日和季节性的需求变化、空间限制、劳动力可用性,以及多样化机器人和自动化系统的集成。而如今,预测实体仓库的运营关键绩效指标(KPI)几乎是不可能的。

为应对这些挑战,Keyon 正在采用 Mega,这是英伟达 Omniverse 的一个用于构建工业数字孪生的蓝图,以测试和优化机器人机队。首先,Keyon 的仓库管理解决方案会给数字孪生中的工业 AI 大脑分配任务,比如将货物从缓冲位置移动到穿梭式存储解决方案处。机器人的大脑处于一个物理仓库的模拟环境中,该仓库通过开放通用场景描述(USD)连接器实现数字化并接入 Omniverse,可聚合 CAD 模型、视频、图像、3D 激光雷达点云以及 AI 生成的数据。机器人机队通过感知和推理其在 Omniverse 数字孪生环境中的情况,规划下一步行动并执行任务。机器人大脑可以通过传感器模拟看到行动的结果状态,并决定下一步行动。这个循环会持续进行,同时 Mega 会精确跟踪数字孪生中所有事物的状态。现在,Keyon 可以大规模模拟无限种场景,同时测量诸如吞吐量、效率和利用率等运营 KPI,然后再将这些变化部署到实体仓库中。

英伟达、Keyon 和埃森哲正共同重塑工业自主性。

未来令人难以置信。未来一切都将是模拟。未来,每个工厂都将拥有一个数字孪生,且这个数字孪生的运行方式与真实工厂完全一样。事实上,你可以使用 Omniverse 和 Cosmos 生成大量未来场景。然后 AI 会决定哪些场景对于任何 KPI 来说是最优化的,这些就会成为编程约束条件,也就是将被部署到真实工厂、自动驾驶汽车中的 AI 的程序。

经过多年发展,自动驾驶革命终于到来,随着 Waymo 和特斯拉的成功,自动驾驶汽车显然已经成为现实。我们为这个行业提供的是三台计算机:用于训练 AI 的训练系统、模拟系统和合成数据生成系统(Omniverse 和现在的 Cosmos),以及安装在汽车内的计算机。每个汽车公司可能会以不同方式与我们合作,使用其中一台、两台或三台计算机。我们正在与全球几乎所有主要汽车公司合作,比如 Waymo、Zoox 和特斯拉(当然是在它们的数据中心)、全球最大的电动汽车制造商比亚迪(BYD)、即将推出一款超酷汽车的极氪(J La)、将从今年开始推出搭载英伟达技术汽车的梅赛德斯 - 奔驰(Mercedes)。我非常非常高兴地宣布,今天丰田和英伟达将合作打造他们的下一代自动驾驶汽车。

还有太多太多的汽车公司,如 Lucid、Rivian、小米(Xiaomi),当然还有沃尔沃(Volvo)。

纬湃科技(Wabi)正在打造自动驾驶卡车。我们本周还宣布,奥罗拉(Aurora)将使用英伟达技术打造自动驾驶卡车。每年全球会制造 1000 万辆汽车,全球道路上行驶着 10 亿辆汽车,每年全球行驶里程达 1 万亿英里。未来,这些车辆要么高度自动驾驶,要么完全自动驾驶。所以这将是一个非常庞大的行业。我预测这很可能会成为首个万亿美元级别的机器人行业。仅从这些刚开始推向市场的部分汽车来看,我们在这个业务上的收入已经达到 40 亿美元。今年按当前趋势预计可能会达到 50 亿美元。所以这已经是一项非常重要的业务,未来规模还会非常大。

今天,我们要宣布我们为汽车打造的下一代处理器,也就是下一代车载计算机。我这里就有一个,稍等一下。好了,这就是 Thor,这是一款机器人计算机。虽然它没标明是机器人计算机,但它能处理大量的传感器信息,要知道,无数摄像头、高分辨率雷达、激光雷达的数据都输入到这个芯片中,这个芯片必须处理所有这些传感器数据,将它们转化为令牌,输入到 Transformer 中,并预测下一步路径。这款自动驾驶汽车计算机现已全面投产。

Thor 的处理能力是我们上一代产品 Oren 的 20 倍,而 Oren 目前是自动驾驶汽车的标准配置。所以这真的非常了不起。顺便说一下,这款机器人处理器 Thor 也可以用于完整的机器人,它可以用于自主移动机器人(AMR)、仿人机器人,可以作为大脑,也可以作为操纵器。这款处理器基本上是一款通用的机器人计算机。

我们驱动系统的第二部分让我无比自豪,那就是对安全的专注。我很高兴地宣布,Drive 现在是首款通过功能安全最高标准 ASIL D 认证的软件定义可编程 AI 计算机,这是汽车领域唯一且最高的功能安全标准。这是约 15000 人年的工程努力成果,真的是非凡的工作,最终打造出了具备功能安全的 CUDA 计算机。所以,如果你要打造一款机器人,英伟达 CUDA……

好了,我之前说过要展示我们如何在自动驾驶汽车场景中使用 Omniverse 和 Cosmos。今天,除了给你们展示一些汽车在路上行驶的视频,我还想展示我们如何利用汽车通过 AI 自动重建数字孪生,并利用这一能力训练未来的 AI 模型。好了,让我们展示一下。

自动驾驶汽车革命已经到来。打造自动驾驶汽车,和所有机器人一样,需要三台计算机。英伟达 DGX 用于训练 AI 模型,Omniverse 用于测试和生成合成数据,Drive AGX 是安装在汽车内的超级计算机。

打造安全的自动驾驶汽车意味着要应对边缘场景,但现实世界的数据有限,所以合成数据对于训练至关重要。由英伟达 Omniverse AI 模型和 Cosmos 驱动的自动驾驶汽车数据工厂,能够生成合成驾驶场景,将训练数据提升几个数量级。首先,Omni Map 融合地图和地理空间数据,构建可行驶的 3D 环境。驾驶场景的变化可以从回放驾驶日志或 AI 交通生成器中生成。接下来,一个神经重建引擎利用自动驾驶汽车的传感器日志创建高保真 4D 模拟环境。它可以在 3D 环境中回放之前的驾驶过程,并生成场景变化以扩充训练数据。最后,Edify Three Decis 会自动在现有资产库中搜索或生成新资产,以创建适合模拟的种子。

Omniverse 生成的场景用于引导 Cosmos 生成大量逼真的数据,缩小模拟与现实之间的差距,并且通过文本提示可以生成近乎无限的驾驶场景变化。借助 Cosmos Nemotha 视频搜索功能,大规模生成的合成数据集与实际录制的驾驶数据相结合,可用于训练模型。

英伟达的 AI 数据工厂将数百次驾驶数据扩展为数十亿等效英里的数据,为安全、先进的自动驾驶设定了标准。这是不是很不可思议?将数千次驾驶转化为数十亿英里的数据。我们将拥有海量的自动驾驶汽车训练数据。当然,我们仍然需要实际在路上行驶的汽车。当然,我们会持续收集数据,只要我们还在发展。然而,利用这种基于多元宇宙、基于物理原理的能力进行合成数据生成,我们可以生成基于物理、准确且合理的数据,为训练 AI 提供海量数据,自动驾驶汽车行业的未来就在眼前。

这是一个令人无比兴奋的时代。我对未来几年超级、超级、超级期待。我想你们将会看到,就像计算机图形技术以惊人的速度实现了革命一样,未来几年自动驾驶汽车的发展速度也将大幅提升。

我想…… 我想接下来该讲讲机器人技术了。

仿人机器人?朋友们?

通用机器人领域的 “ChatGPT 时刻” 即将到来。事实上,我一直在谈论的所有使能技术将让我们在未来几年内看到通用机器人领域取得非常快速、令人惊喜的突破。通用机器人之所以如此重要,是因为虽然带履带和轮子的机器人需要特殊环境来运行,但世界上有三类机器人无需特殊场地就能使用。它们能够很好地适应现有环境。如果我们能够打造出这些出色的机器人,我们就可以将它们部署在我们自己构建的世界中。这三类机器人,第一类是智能体机器人和智能体 AI,因为它们是信息工作者,只要能够适配我们办公室中的计算机,就会非常实用。

第二类是自动驾驶汽车。原因是我们花了 100 多年时间建设道路和城市。第三类是仿人机器人。如果我们有技术解决这三类机器人的问题,这将成为世界上有史以来最大的科技产业。所以我们认为机器人时代即将来临。

关键能力在于如何训练这些机器人。以仿人机器人为例,模仿信息收集起来相当困难,原因是对于汽车来说,你只需要驾驶它,我们一直在驾驶汽车。但对于仿人机器人来说,获取人类演示的模仿信息相当费力。所以我们需要想出一个巧妙的办法,利用人工智能和 Omniverse,从数百次、数千次人类演示中,合成生成数百万次合成动作。从这些动作中,AI 可以学习如何执行任务。让我展示一下具体是怎么做的。

世界各地的开发者正在打造下一波物理 AI—— 具身机器人、仿人机器人。开发通用机器人模型需要大量的真实世界数据,而获取和整理这些数据成本高昂。英伟达 Isaac Groot 有助于应对这些挑战,它为仿人机器人开发者提供了四样东西:机器人基础模型、数据处理管线、模拟框架,以及一台 Thor 机器人计算机。

英伟达 Isaac Groot 用于合成动作生成的蓝图是一个用于模仿学习的模拟工作流程,使开发者能够从少量的人类演示中生成指数级增长的数据集。首先,Groot 远程操控功能使熟练的人类工作人员能够通过苹果 Vision Pro 进入其机器人的数字孪生。这意味着操作员即使没有物理机器人也能收集数据,并且可以在无风险环境中操作机器人,消除了物理损坏或磨损的可能性。为了教会机器人完成一项任务,操作员通过几次远程操控演示捕捉动作轨迹,然后使用 Groot 模仿功能将这些轨迹扩展为更大的数据集。接下来,他们使用基于 Omniverse 和 Cosmos 的 Groot 生成功能进行域随机化和从 3D 到真实场景的放大,生成指数级更大的数据集。Omniverse 和 Cosmos 的多元宇宙模拟引擎提供大规模数据集来训练机器人策略。一旦策略训练完成,开发者可以在 Isaac Sim 中进行软件在环测试和验证,然后再部署到真实机器人上。

通用机器人时代正在到来,由英伟达 Isaac Groot 推动。我们将拥有海量数据来训练机器人。英伟达 Isaac Groot,英伟达 Isaac Groot,这是我们为机器人行业提供技术平台元素的平台,以加速通用机器人的发展。

还有,我想给你们展示最后一件事。如果没有大约十年前我们启动的这个令人难以置信的项目,所有这一切都不可能实现。在公司内部,它被称为 Project Digits—— 深度学习 GPU 智能训练系统 Digits。

在推出它之前,我调整了 DGX,并使其与 RTX、AGX、OVC 以及公司里所有其他带 “X” 的产品相协调。DGX 1 真的彻底革新了……DGX 1 到底在哪儿呢?DGX 1 真的彻底革新了人工智能领域。

我们打造它的原因是,我们希望研究人员和初创公司能拥有一台开箱即用的人工智能超级计算机。想象一下过去超级计算机的建造方式,你真的得自己建造设施,搭建基础设施,经过精心设计才能让它问世。所以我们为人工智能开发、为研究人员和初创公司打造了一台真正开箱即用的超级计算机。2016 年,我给一家名为 OpenAI 的初创公司交付了第一台,当时埃隆也在现场,还有很多 MVA 工程师,我们共同庆祝了 DGX 1 的诞生。显然,它彻底革新了人工智能和计算领域。但如今,人工智能无处不在。

它不再仅仅局限于研究人员和初创公司的实验室。正如我在演讲开头提到的,我们希望人工智能如今能成为计算和软件开发的新方式。如今,每一位软件工程师、每一位工程师、每一位创意艺术家,以及每一个将计算机作为工具使用的人,都将需要一台人工智能超级计算机。所以我……

DGX 1 相对较小,而且…… 你们知道,所以…… 那么,女士们、先生们,想象一下……

这是英伟达最新的人工智能超级计算机。目前它终于被叫做 Project Digits。如果你们有更好的名字,欢迎联系我们。

这里有个惊人之处。这是一台人工智能超级计算机。它能运行英伟达的整个 AI 堆栈。所有英伟达软件都能在上面运行,DGX 云服务也能在这上面运行。它可以放置在某个地方,并且可以无线连接,或者连接到你的电脑。如果你愿意,它甚至可以作为一台工作站使用。你可以像访问云超级计算机一样访问它,英伟达的 AI 技术都能在上面发挥作用。它基于我们一直在研发的一款超级机密芯片 JB 110 打造,这是我们制造的最小的 Grace Blackwell 芯片。我有…… 嗯,你们知道吗?让我们展示给在场的每个人看看。

这难道不…… 这太酷了,这就是里面的芯片。它已经在生产了。这颗顶级机密芯片是我们与联发科技(Mediatek)合作打造的。联发科技是全球领先的系统级芯片(SOC)公司,他们与我们合作打造了这款 CPU - SOC,并通过芯片间的 Mv 链路连接到 Blackwell GPU。

图片


这个小家伙已经全面投产。我们预计这台计算机将在 5 月左右上市。

所以它就要与大家见面了。我们能做到这些真的太不可思议了。我在想,我是需要更多的手还是更多的口袋呢?好了,想象一下它就是这个样子。谁会不想要一台呢?而且如果你使用 PC,你肯定能明白,因为它是一个云平台,一个放在你桌上的云计算平台。如果你愿意,也可以把它当作一台 Linux 工作站来使用。如果你想要双精度运算,这就是它的样子,你可以通过 ConnectX 将它连接起来,它还具备 NVIDIA GPU Direct 等功能,开箱即用。它就像一台超级计算机,我们整个超级计算堆栈都能使用,这就是英伟达的 Project Digits。

好了,我要告诉你们,我们目前正在生产三款新的 Blackwell 产品。不仅 Grace Blackwell 超级计算机、具备 72 条 NVLink 的版本在全球各地投入生产,我们现在还有三款新的 Blackwell 系统在生产中。

世界上首个令人惊叹的人工智能基础世界基础模型、首个物理人工智能基础模型已经开放,可供全球机器人等行业启用。还有三类机器人 —— 基于智能体人工智能的机器人、仿人机器人和自动驾驶汽车相关技术也在推进。这是不可思议的一年。我要感谢大家的合作,感谢大家的到来。我制作了一个短视频,回顾过去一年,并展望新的一年。请播放。

图片


祝大家在 CES 玩得愉快。新年快乐,谢谢!
 .END.

往期文章回顾