英伟达FY2025Q1业绩电话会议 $英伟达(NVDA)$
Stacy Rasgon
嗨,伙计们。感谢你们接受我的问题。我的第一个问题,我想深入一点,关于Blackwell的评论,它现在全面投产了。关于发货和交付时间,这有什么建议吗?如果该产品——听起来不再只是样品了。如果它真的投产了,那意味着什么,当它实际上在客户手中时?如果它现在真的投产了?
Jensen Huang
我们将发货。嗯,我们已经投产了一段时间。但我们的生产发货将从第二季度开始,并在第三季度增加,客户应该在第四季度建立数据中心。
Stacy Rasgon
明白了。所以今年我们将看到Blackwell的收入,听起来是这样?
Jensen Huang
我们今年将看到很多Blackwell的收入。
接线员
我们的下一个问题来自UBS的Timothy Arcuri。请继续。
Timothy Arcuri
非常感谢。Jensen,我想问的是,关于Blackwell与Hopper的部署,只是在系统性质和所有对GB的需求方面。这次部署与Hopper有何不同?我这样问是因为,大规模的液体冷却以前没有做过,而且在节点级别和数据中心内部都存在一些工程挑战。那么,这些复杂性是否会延长过渡期?你如何看待这一切的发展?谢谢。
Jensen Huang
是的。Blackwell有许多配置。Blackwell是一个平台,而不是一个GPU。该平台包括支持空气冷却、液体冷却、x86和Grace、InfiniBand,现在是Spectrum-X以及我在GTC上展示的非常大的NVLink领域。所以对于一些客户,他们将利用现有的数据中心基础设施,这些数据中心已经在运送Hoppers。他们将很容易地从H100过渡到H200到B100。当然,Blackwell系统被设计成向后兼容,如果你愿意的话,电气上和机械上。当然,在Hopper上运行的软件堆栈在Blackwell上也会运行得非常好。我们还一直在用整个生态系统来为液体冷却做好准备。我们已经有一段时间在谈论Blackwell了。CSPs、数据中心、ODMs、系统制造商、我们的供应链、他们的冷却供应链基础、液体冷却供应链基础、数据中心供应链基础,没有人会对Blackwell的到来以及我们希望用Grace Blackwell 200交付的能力感到惊讶。GB200将会非常出色。
接线员
我们的下一个问题来自美国银行证券的Vivek Arya。请继续。
Vivek Arya
谢谢你们接受我的问题。Jensen,你如何确保你的产品有足够多的使用率,并且不会因为供应紧张、竞争或其他因素而出现提前拉货或持有行为?基本上,你在系统中建立了哪些检查,让我们相信货币化与你们非常强劲的发货增长保持同步?
Jensen Huang
嗯,我想,我会先来谈谈大局观,然后直接回答你的问题。数据中心对GPU的需求令人难以置信。我们每天都在竞速。原因就是这样的应用,像ChatGPT和GPT-4o,现在它将是多模态和Gemini及其增长和Anthropic以及所有CSP正在进行的工作正在吞噬市面上的每一个GPU。还有一长串生成性AI初创公司,大约有15,000到20,000家初创公司,在从多媒体到数字角色的各个领域,当然还有各种设计工具应用——生产力应用、数字生物学、将AV行业转向视频,以便他们可以训练端到端模型,扩大自动驾驶汽车的运营领域。这个列表非常不寻常。我们实际上正在竞速。客户给我们施加了很大的压力,要求我们尽快交付系统并尽快建立。当然,我甚至还没有提到所有希望尽快让他们的基础设施上线的主权AI,因为他们想节省资金并赚钱。他们希望尽快做到这一点。
接线员
我们的下一个问题来自摩根士丹利的Joseph Moore。请继续。
Joseph Moore
太好了。谢谢。我知道你刚才说的需求有多强劲。你对H200和Blackwell产品的需求很大。你是否预计在从Hopper和H100过渡到这些产品时会有任何暂停?人们会等待这些新产品吗,这将是一个不错的产品?或者你认为对H100的需求足以维持增长?
Jensen Huang
我们看到对Hopper的需求在本季度持续增长。我们预计——我们预计在一段时间内需求将超过供应,因为我们现在过渡到H200,因为我们过渡到Blackwell。每个人都急于让他们的基础设施上线。原因就是这样,因为他们正在省钱和赚钱,他们希望尽快做到这一点。
接线员
我们的下一个问题来自高盛的Toshiya Hari。请继续。
Toshiya Hari
嗨。非常感谢你们接受我的问题。Jensen,我想问的是关于竞争。我认为你们的许多云客户都宣布了新的或更新到他们现有的内部计划,对吧,在与你们的合作同时进行。你认为他们在中长期内有多大程度上被视为竞争对手?在您看来,他们是否仅限于解决大部分内部工作负载,还是他们在未来可能会更广泛地解决问题?谢谢。
Jensen Huang
我们有几个不同之处。首先,NVIDIA的加速计算架构允许客户处理他们的管道的每个方面,从非结构化数据处理到准备训练,到结构化数据处理,像SQL这样的数据帧处理来准备训练,到训练到推理。正如我在我的言论中提到的,推理实际上已经发生了根本性的变化,现在是生成。不是试图检测一只猫,这本身就已经很困难了,而是必须生成猫的每一个像素。因此,生成过程是根本不同的处理架构。这也是TensorRT LLM之所以受到如此好评的原因之一。我们在我们架构上使用相同芯片的性能提高了三倍。这告诉你一些关于我们架构丰富性和我们软件丰富性的事情。所以首先,你可以用NVIDIA处理一切,从计算机视觉到图像处理,计算机图形学,到所有模态的计算。由于通用计算已经走到了尽头,世界现在正遭受计算成本和计算能源膨胀的困扰,因此加速计算是真正可持续的前进方式。所以加速计算是你在计算中节省资金的方式,是你在计算中节省能源的方式。因此,我们平台的多功能性使得数据中心的总拥有成本最低。第二,我们在每个云中都有。所以对于正在寻找平台进行开发的开发人员来说,从NVIDIA开始总是一个不错的选择。我们在本地,我们在云端。我们在任何大小和形状的计算机上。我们几乎无处不在。所以这是第二个原因。第三个原因与我们构建AI工厂的事实有关。这变得越来越明显,AI不仅仅是芯片问题。它当然始于非常好的芯片,我们为AI工厂构建了一大堆芯片,但它是一个系统问题。事实上,即使是AI,现在也是一个系统问题。它不仅仅是一个大型语言模型。它是一大堆大型语言模型的复杂系统,它们一起工作。所以NVIDIA构建这个系统的事实使我们能够优化我们所有的芯片作为一个系统一起工作,能够拥有作为一个系统运行的软件,并能够在整个系统中进行优化。只要举一个简单的数字例子,如果你有一个50亿美元的基础设施,你提高了两倍的性能,这是我们通常做的事情,当你提高基础设施两倍时,它的价值也是50亿美元。数据中心中的所有芯片并不能支付它。所以它的价值真的非常不寻常。这就是为什么今天,性能至关重要。这是在最高性能也是最低成本的时候,因为承载所有这些芯片的基础设施成本很高。运营数据中心需要很多资金,与此相关的人员,与之相关的电力,与之相关的房地产,一切都加起来。所以最高性能也是最低的总拥有成本。
接线员
我们的下一个问题来自TD Cowen的Matt Ramsay。请继续。
Matthew Ramsay
非常感谢。大家下午好。Jensen,我在数据中心行业工作了一辈子。我从未见过你们以同样的性能飞跃速度推出新平台,我的意思是,在训练中提高了5倍。你在GTC上谈到的一些内容,在推理上提高了30倍。这真是令人惊叹,但这也创造了一个有趣的对比,即你的客户正在花费数十亿美元购买的当前一代产品,将比你的产品折旧周期更快地不再具有竞争力。所以我想让你——如果你不介意的话,谈一谈你如何看待这种情况与客户的发展。随着你转向Blackwell,你将拥有非常大的安装基础,显然软件兼容,但安装基础的产品的性能远不如你的新一代产品。我很想知道你如何看待客户在这方面的发展。谢谢。
Jensen Huang
是的。我真的很感激。我想提出三点。如果你是5%的建设完成,而不是95%,你的感觉会非常不同。因为你无论如何都只有5%的建设完成,所以尽快建设。当Blackwell到来时,它会非常棒。然后,在Blackwell之后,正如你提到的,我们还有其他的Blackwell即将到来。然后有一个短暂的——我们已经向世界解释了一年的节奏。我们希望我们的客户看到我们的路线图,尽可能地看到他们喜欢的东西,但他们无论如何都是早期建设,所以他们必须继续建设,好吗。所以将会有很多芯片向他们袭来,他们必须继续建设和只是,如果你愿意的话,通过性能平均进入它。这是聪明的做法。他们今天需要赚钱。他们今天想省钱。时间对他们来说真的很有价值。让我给你举一个时间非常有价值的例子,为什么立即建立数据中心的想法如此有价值,以及获得训练时间的概念如此有价值。原因是因为下一个达到下一个主要里程碑的公司将宣布一个开创性的AI。而之后的第二个公司则宣布了一些东西,只比原来好0.3%。所以问题是,你是想成为反复提供开创性AI的公司,还是提供比原来好0.3%的公司?这就是为什么这场比赛如此重要的原因,就像所有的技术比赛一样。你看到这场比赛在多家公司中展开,因为这对拥有技术领导地位,让公司信任领导地位并希望在你们的平台上构建,并且知道他们正在构建的平台将越来越好至关重要。所以领导地位非常重要。训练时间非常重要。提前三个月完成训练时间,以便提前三个月开始一个为期三个月的项目,提前三个月开始就是一切。所以我们现在正在疯狂地建立Hopper系统,因为下一个里程碑就在眼前。所以这是第二个原因。你刚才提出的评论实际上是一个非常好的评论,即我们是如何做到的——我们移动得如此之快,并且如此迅速地推进它们?因为我们在这里拥有所有的技术栈。我们在这里字面意义上建立了整个数据中心,我们可以监控一切,测量一切,跨一切进行优化。我们知道所有的瓶颈在哪里。我们不是在猜测。我们不会放一些看起来不错的PowerPoint幻灯片。我们实际上——我们也喜欢我们的PowerPoint幻灯片看起来不错,但我们交付的系统在规模上表现良好。我们之所以知道它们在规模上表现良好的原因是因为我们在这里建立了它们。现在,我们所做的其中一件有点奇迹的事情是,我们在这里建立了整个AI基础设施,但然后我们将其解构并集成到我们客户的数据中心,无论他们喜欢什么方式。但我们知道它将如何表现,我们知道瓶颈在哪里。我们知道我们需要在哪里与他们合作进行优化,并知道我们需要在哪里帮助他们改进他们的基础设施以实现最佳性能。这种对整个数据中心规模的深刻了解基本上是今天让我们与众不同的地方。我们从头开始构建每一个芯片。我们确切地知道整个系统是如何进行处理的。所以我们确切地知道它将如何表现,以及如何利用每一代产品获得最佳性能。所以我很感激。这就是三点。
接线员
你的下一个问题将来自Evercore ISI的Mark Lipacis。请继续。
Mark Lipacis
嗨。谢谢你接受我的问题。Jensen,过去,你曾经观察到,通用计算生态系统通常主导了每个计算时代。我相信论点是它们可以适应不同的工作负载,获得更高的利用率,推动计算周期的成本降低。这是你推动通用GPU CUDA生态系统向加速计算发展的动机。如果我误解了那个观察,请告诉我。所以问题是,鉴于推动对你的解决方案需求的工作负载是由神经网络训练和推理驱动的,这在表面上看起来像是有限数量的工作负载,那么它们也可能适用于定制解决方案。所以问题是,通用计算框架是否变得更有风险,或者这些工作负载的变异性或快速发展是否足以支持历史通用框架?谢谢。
Jensen Huang
是的。NVIDIA的加速计算是多功能的,但我不会称之为通用的。例如,我们可能不擅长运行电子表格。那真的是为通用计算设计的。因此,有一个——操作系统代码的控制循环可能对通用计算不是很好,而不是加速计算。所以我会说我们是多功能的,这通常是我描述它的方式。多年来,我们能够加速的应用程序领域非常丰富,但它们都有很多共同点。也许有一些深刻的差异,但有共同点。它们都可以并行运行,都非常依赖线程。5%的代码代表了99%的运行时间,例如。这些都是加速计算的特性。我们平台的多功能性和我们设计整个系统的事实是过去10年左右,你们在这些电话会议中问我的初创公司数量相当大的原因。每一个,因为他们的架构脆弱,当生成性AI出现时,或者当融合模型出现时,当现在即将出现的下一种模型时。突然之间,看看这个,带有记忆的大型语言模型,因为大型语言模型需要有记忆,这样他们才能与你进行对话,理解上下文。突然之间,Grace内存的多功能性变得非常重要。所以每一次这些生成性AI的进步和AI的进步都迫切需要不是为一个模型设计的一个小部件。而是要有一些真正适合整个领域的东西,整个领域的特性,但要遵循软件的首要原则,即软件将继续发展,软件将继续变得更好、更大。我们相信这些模型的扩展。有很多原因,我们将在未来几年内轻松地扩展一百倍,我们期待着它,我们已经准备好了。所以,我们平台的多功能性确实是关键。如果你太脆弱、太具体了,你还不如直接构建一个FPGA或者构建一个ASIC或者类似的东西,但那几乎不是一台计算机。
接线员
我们的下一个问题来自Jefferies的Blayne Curtis。请继续。
Blayne Curtis
谢谢你接受我的问题。实际上,我很好奇,我是说,在供应受限的情况下,你为中国推出了一款产品,H20。我假设对它的需求量很大,但显然,你还在尽力用其他Hopper产品为你的客户提供服务。只是有点好奇,你如何看待下半年的情况。你能详细说明一下,你对销售以及毛利率的影响有何看法。
Jensen Huang
我没有听到你的问题。有些东西被消音了。
Simona Jankowski
H20,以及你如何看待在不同的Hopper产品之间分配供应。
Jensen Huang
嗯,我们有我们要尊重的客户,我们尽最大努力为每个客户服务。确实,我们在中国的业务比过去低得多。由于对我们技术的限制,中国现在的竞争要激烈得多。所以这些都是真的。然而,我们继续尽最大努力为那里市场的客户提供服务,并且尽我们所能,我们将尽最大努力。但我认为总体上,我们关于需求超过供应的评论是针对整个市场的,特别是对H200和Blackwell年底的情况。
接线员
我们的下一个问题来自Raymond James的Srini Pajjuri。请继续。
Srini Pajjuri
谢谢。Jensen,实际上更多的是对你所说的澄清。GB 200系统,看起来对系统的需求很大。历史上,我想你卖了很多HGX板和一些GPU,系统业务相对较小。所以我只是好奇,为什么现在你看到如此强烈的需求系统向前发展?这仅仅是因为总拥有成本,还是别的什么,或者是因为架构?谢谢。
Jensen Huang
是的。我感谢那个。实际上,我们销售GB200的方式是一样的。我们分离所有有意义的组件,并将它们集成到计算机制造商中。今年将有100种不同的计算机系统配置用于Blackwell。这是破纪录的。坦率地说,Hopper只有一半,但那是在它的高峰。它开始时甚至比那还少。所以你将看到液体冷却版本、空气冷却版本、x86版本、Grace版本,等等。正在设计一大堆系统。它们由我们所有伟大的合作伙伴生态系统提供。没有什么真的改变了。当然,Blackwell平台极大地扩展了我们的提供。CPU的集成和计算密度的更压缩,液体冷却将在配置电力方面为数据中心节省很多资金,更不用说更具能源效率了。所以这是一个更好的解决方案。它的扩展性更强,意味着我们为数据中心提供了更多的组件,每个人都赢了。数据中心获得了更高的性能,来自网络交换机的网络。当然,NICs,我们现在有了以太网,所以我们可以将NVIDIA AI大规模地带给那些只懂得操作以太网的客户,因为他们拥有的生态系统。所以Blackwell更加扩展。我们在这个时代为我们的客户提供了更多的东西。
接线员
我们的下一个问题来自Truist Securities的William Stein。请继续。
William Stein
太好了。谢谢你接受我的问题。Jensen,某种程度上说,NVIDIA决定,尽管有相当好的CPU可用于数据中心运营,但你基于ARM的Grace CPU提供了一些真正的优势,这使得这项技术值得交付给客户,可能与成本或功耗或Grace和Hopper、Grace和Blackwell之间的技术协同有关。你能谈谈是否会有类似的动态可能出现在客户端,尽管有非常好的解决方案,你已经强调了Intel和AMD是非常好的合作伙伴,在x86方面提供了非常好的产品,但可能在新兴的AI工作负载方面,NVIDIA可以提供的优势,其他人可能更有挑战?
Jensen Huang
嗯,你提到了一些非常好的理由。确实,对于许多应用程序来说,我们与x86合作伙伴的合作非常棒,我们一起构建了出色的系统。但是Grace让我们能够做一些用今天的系统配置无法实现的事情。Grace和Hopper之间的内存系统是相干且连接的。两个芯片之间的互连,称之为两个芯片几乎很奇怪,因为它就像一个超级芯片。它们通过这个每秒数兆的接口连接。这是破纪录的。Grace使用的内存是LPDDR。这是第一个数据中心级低功耗内存。所以我们在每个节点上都节省了很多电力。最后,由于架构,因为我们现在可以用整个系统创建自己的架构,我们可以创建一个具有真正大的NVLink领域的东西,这对于下一代大型语言模型的推理至关重要。所以你看到GB200有一个72节点的NVLink领域。这就像72个Blackwell连接在一起,形成一个巨大的GPU。所以我们需要Grace Blackwell才能做到这一点。所以有架构原因,有软件编程原因,还有系统原因,这对我们以这种方式构建它们至关重要。所以如果我们看到像那样的机会,我们会探索它。今天,正如你在昨天的构建中看到的,我认为非常棒,Satya宣布了下一代PC,Copilot+ PC,它在NVIDIA的RTX GPU上运行得非常好,这些GPU正在笔记本电脑中发货。但它也非常漂亮地支持ARM。所以它甚至为PC的系统创新打开了机会。
接线员
我们的最后一个问题来自Cantor Fitzgerald的C.J. Muse。请继续。
C.J. Muse
下午好。谢谢你接受我的问题。Jensen,这是一个更长期的问题。我知道Blackwell甚至还没有启动,但显然,投资者是前瞻性的,并且在潜在的GPU和定制ASIC的竞争中,你如何看待NVIDIA的创新步伐和你在过去十年中的百万倍扩展,真正令人印象深刻。CUDA、Varsity、Precision、Grace、Cohere和Connectivity。当你向前看时,未来十年需要解决什么摩擦?也许更重要的是,你今天愿意和我们分享什么?
Jensen Huang
嗯,我可以宣布,在Blackwell之后,还有另一个芯片。我们处于一年的节奏中。所以你还可以指望我们在非常快的节奏上拥有新的网络技术。我们宣布了Spectrum-X用于以太网。但我们都致力于以太网,我们有一个非常令人兴奋的以太网路线图即将到来。我们有一个丰富的合作伙伴生态系统。戴尔宣布他们将把Spectrum-X推向市场。我们有一个丰富的客户和合作伙伴生态系统,他们将宣布将我们的整个AI工厂架构推向市场。所以对于那些想要最终性能的公司,我们有InfiniBand计算织物。InfiniBand是一种计算织物,以太网是一种网络。多年来,InfiniBand最初是一种计算织物,成为了更好的网络。以太网是一种网络,有了Spectrum-X,我们将使它成为一个更好的计算织物。我们全面致力于所有三个链接,NVLink计算织物用于单一计算域,InfiniBand计算织物,以太网网络计算织物。所以我们将非常迅速地推进所有三个。所以你将看到新的交换机到来,新的NIC到来,新的能力,运行在所有三个上面的新软件堆栈。新的CPU,新的GPU,新的网络NIC,新的交换机,一大堆芯片即将到来。所有这些,美妙的事情是所有这些都能运行CUDA。它们都运行我们的整个软件堆栈。所以你今天投资我们的软件堆栈,不用做任何事情,它只会变得更快、更快、更快、更快。如果你今天投资我们的架构,不用做任何事情,它将进入更多的云和更多的数据中心,一切都运行。所以我认为我们带来的创新步伐将提高能力,一方面,降低总拥有成本另一方面。所以我们应该能够扩展NVIDIA架构,迎接计算的这个新时代,并开始这场新的工业革命,我们将不仅仅制造软件,我们将大规模地制造人工智能代币。谢谢。
(这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)