专题:英伟达Q1财报全面超预期 官宣拆股计划 英伟达今日公布了2025财年第一财季财报:营收260.44亿美元,同比增长262%,环比增长18%;净利润为148.81亿美元,同比增长628%,环比增长21%;Non-GAAP净利润为152.38亿美元,同比增长462%,环比增长19%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。 详见:英伟达第一财季营收260.44亿美元 经调净利同比增462%财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。 以下是分析是问答环节主要内容: 伯恩斯坦研究分析师Stacy Rasgon:我有一个关于Blackwell平台的问题。该芯片目前已经全面投入生产,这对于发货和交付时间意味着什么?对于客户意味着什么? 黄仁勋:我们会在生产了一段时间后进行发货,但我们的生产性发货将在第二季度开始并在第三季度逐步增加,客户的数据中心应该可以在第四季度起使用上Blackwell平台。 Stacy Rasgon:所以Blackwell平台今年就可以开始贡献营收? 黄仁勋:今年我们会看到Blackwell平台对公司贡献大量营收。 瑞银分析师Timothy Arcuri:我想请问一下黄仁勋,公司对于Blackwell平台的部署情况会有哪些不同。考虑到其系统的性质,以及市场对于性能的巨大需求,Blackwell部署与Hopper平台的部署会有什么不同?我这样问是因为大规模液冷还没有实现,而且在节点级别和数据中心内部都存在一些工程挑战。这些复杂性的因素是否会延长向Blackwell的过渡时间?管理层如何看待这一切的进展? 黄仁勋:Blackwell有多种配置,Blackwell是一个平台,而非GPU。该平台支持风冷、液冷、X86架构、Grace处理器,以及InfiniBand计算机网络通信标准、Spectrum X网络平台和NVLink通信协议,这些我在GTC (英伟达面向开发者的全球人工智能会议)上都展示过。因此,对于一些客户来说,他们可以将现有的已经部署Hopper的数据中心进行升级,可以很容易从H100过渡到H200再到B100。 无论是电气还是机械方面,Blackwell系统的设计都是能够向后兼容的,当然,Harper上运行的软件栈在Blackwell上也能出色运行。我们也一直在推动整个生态系统为液冷做好准备。过去一段时间中,我们已经同生态系统的合作伙伴就Blackwell进行了讨论,包括了同CSP(云服务提供商)、数据中心服务商、ODM(原始设计制造商)、系统制造商以及供应链等进行的相当长时间的沟通,以及同冷却供应链、液冷供应链、数据中心供应链之间的沟通。大家对于Blackwell的即将上市都有所准备,都对Grace Blackwell 2能够实现的超凡表现充满期待。 美银美林分析师Vivek Arya:公司如何确保市场对英伟达产品有足够的使用,而不是因为供应紧张、竞争或其他因素而出现提前抢购或囤积行为?哪些系统方面的因素可以让投资人相信,能够在非常大的出货量情况下保持良好盈利? 黄仁勋: 我先从大的方面谈一下,然后具体直接回答你的问题。市场对GPU和数据中心的需求是惊人的,我们每天都在和时间赛跑,原因是像ChatGPT、GPT 4.0这样的应用程序,而且多模态的趋势越来越明显,包括不断成长的Gemini、Anthropic等人工智能大模型,所有CSP的运行都在消耗着巨量的GPU。 此外,还有成千上万的生成式人工智能初创公司,分布在从多媒体到数字角色、各类设计工具、生产力应用、数字生物学、视听行业向视频迁移等各个领域,助力他们训练端到端模型,扩大自动驾驶汽车的操作领域等等。客户列表真的非常长,也给了我们很大压力,要求我们尽快交付系统并使其正常运行。当然,我前面提到的这些还不包括所有的主权人工智能,他们希望利用本国的自然资源,也就是数据,来训练自己的区域模型,建立这些系统也面临很大压力。总之,需求非常高,已经超过了我们的供应能力。 从更长远的角度来看,我们正在彻底地重新设计计算机的运行方式,这是平台的转变。当然,我们看到很多人将这一转变同以往的数次平台转变进行了比较,但时间会清楚地证明一切,此次转变比以往的转变都要深刻得多。原因是如今计算机已不再仅仅是指令驱动型的设备,而是一台理解意图的设备,不但理解我们与它互动的方式,而且理解我们要求它做什么。它拥有推理、迭代推断的能力,用来处理计划并给出解决方案。 所以,计算机各个方面的运行都在发生变化,不仅仅是检索预先记录的文件,而且能够即刻生成与上下文相关的智能答案,这也将改变全世界的计算堆栈,甚至连个人电脑的计算堆栈都将发生革命性的变化。而这仅仅是一个开始,相比我们在实验室里的工作,以及我们与全世界初创公司、大公司和开发者合作的成果,人们今天所看到的只是冰山一角,未来的应用将是无比巨大和非凡的。 摩根士丹利分析师Joseph Moore:我理解你刚才所提到的强劲需求,对于H200和Blackwell产品的巨大需求。那么当这些产品的销量逐渐增长的时候,管理层是否预计Hopper和H100产品销量的增长会出现暂停吗?人们会因为等待新产品的发布而导致Hopper和H100产品的销量放缓,还是认为说H100有足够的需求来维持增长? 黄仁勋:我们看到市场对于Hopper的需求在本季度不断增加,而且我们预计在公司转向H200和Blackwell的时候,Hopper的需求在一段时间内会超过供应。所有公司都急于上线他们的基础设施,这些行动可以帮助他们降低成本,提高收益,而且他们希望能尽快做到这一点。 高盛分析师Toshiya Hari:我有一个关于竞争的问题想请教管理层。我们看到公司在云行业的很多客户在与英伟达合作的同时,宣布了新的内部项目,或者对现有内部项目的更新。中长期来看,公司是否认为他们有可能会成为竞争对手?关于这个问题,管理层认为他们会局限于处理大多数内部工作负载,还是说处理的范围未来可能拓展至更广泛的领域呢? 黄仁勋:我们同客户之间存在几个方面的不同。首先,英伟达的加速计算架构助力客户后备产品研发的各个方面工作,从非结构化数据处理以准备用于训练,到结构化数据处理,到类似SQL的数据框处理以准备用于训练,再到训练推理。正如我前面提到的,推理已经从根本上发生了很大的变化,目前已经到了生成的阶段,已经不仅是猫脸识别——当然,这种识别本身就已经是非常困难的一项任务了——而且必须生成猫图像的每一个像素,所以生成过程是一种从根本上存在不同的处理架构,这也是TensorRT大模型如此受欢迎的原因之一。 使用相同的芯片,我们将自身架构的性能提高了三倍。这在一定程度上说明了英伟达架构的丰富性和软件的丰富性。英伟达架构的用途非常广泛,从计算机视觉到图像处理,从计算机图形学到所有计算模式。而且由于通用计算已经走到尽头,全世界现在都在承受计算成本和计算能源膨胀之苦,加速计算确实是持续进步的可持续方式,通过加速计算的应用,客户可以在计算方面节省资金和能源,英伟达平台的多功能属性将数据中心的运行成本降至最低。 其次,所有云服务商都在使用英伟达的产品,所以对于那些寻找开发平台的开发者来说,从研究英伟达开始是一个很好的选择。我们既服务与本地数据库,也服务于云端数据中心,各类计算机和计算设备都在使用我们的产品,所以我们实际上是无处不在的。第三个原因与我们构建人工智能工厂的情况相关,很多人都越来越清楚地意识到人工智能并非仅仅是芯片的问题。 当然,性能优异的芯片是人工智能发展的基础,我们也为自己的人工智能工厂制造了一系列的芯片产品,但发展这一产业更多的还是一个系统问题。人工智能不仅仅是大型语言模型,而是由一系列共同运行的大型语言模型所组成的复杂系统。通过构建这一系统,英伟达能够不断优化我们所有的芯片产品,将其整合在一个系统协同运行,开发保证系统顺利运行的软件,并不断优化整个系统。 用数字可以非常简明地说明情况,如果有一个价值50亿美元的基础设施,通过将基础设施的效能提高一倍,其价值也会增加50亿美元,但用于升级数据中心芯片的投入可能根本没有那么多,所以说英伟达产品的价值确实是非凡的,这就是为什么性能在当今的业务规模拓展中至关重要的原因。获得最高的基础设施性能其实在成本投入方面是最低的,因为运行基础设施的其他方面成本是非常高的,包括了数据中心方面的投资、运营数据中心的成本、相关人员、能源和房地产等等都需要很多钱。因此,提升性能其实是成本最低的投资。 TD Cowen分析师Matt Ramsay:我一直都是数据中心行业的从业者,但是我从未见过像英伟达这样,如此快速地推出新平台,并大幅提升其性能的公司,比如在训练方面的性能提升了5倍,推理方面的性能提升甚至高达30倍,这真的是非常令人惊叹。不过同时,这也带来了一个有趣的问题,针对公司当前一代的产品,客户已经花费了数十亿美元,然而与你们的新产品相比,它们的竞争力将会很快下降,而且下降的速度比产品的折旧周期还要快。所以我想请黄仁勋谈一下,你如何看待这种情况的发展,以及客户在这个过程中会遇到什么问题? 黄仁勋:非常感谢你的分享。我想提出三点。如果你只进行了5%的(数字中心)部署,那么同你已经完成了95%的部署相比,使用感受肯定会非常不同,而那些才进行了5%部署的公司,也肯定会加快部署建设。Blackwell平台的出现,以及就像你提到的,未来还会有其他的Blackwell,如我们所言,公司会保持每年发布一款新品的节奏,客户应该也愿意看到公司的远期发展路线图,未来一定会有更多种类英伟达芯片提供给他们。只要他们愿意持续在部署方面进行投入,其数据中心的平均性能就能不断提高,这些投资也一定是明智的,获得收益和节省成本是他们持续部署的动力。 此外,时间价值也是非常巨大的。举例来说,快速部署数据中心和尽早开始数据训练意味着巨大的价值,因为只有率先研发出更高水平的人工智能技术,才有实力推出下一款具有开创性的人工智能产品,而跟随者能做的可能仅仅是在领先者产品的基础上稍做提升。所以问题就是,你愿意成为不断推出开创性人工智能产品的公司,还是跟在别的公司后面为其产品做优化。这就是一场竞赛,就像所有技术竞赛一样,其结果非常重要。 很多公司都在参与这场竞争,拥有技术领导力对公司来说非常关键,可以让客户对于这种领导力产生信任,愿意基于你的平台进行部署,并且清晰了解你的平台的远期发展策略。尽早开始数据训练也非常重要,提前三个月开始训练可能意味着赢得这场技术竞赛,这也是我们为什么疯狂地部署Hopper系统的原因,因为我们相信,下一场技术进步的高潮即将到来。 你提到的一点非常好,就是我们如何做到如此之快地发布新品并迅速实现技术进步的。因为我们拥有类型丰富的堆栈,英伟达参与了整个数据中心部署的全流程,我们实现了全局监控,全局测算,针对所有数据运行方面的问题进行优化。通过这些实践,我们就可以了解阻碍运行的各种瓶颈在哪里,而不是依靠猜测,不是制作高大上的幻灯片——当然,我们也希望能做出看起来高大上的幻灯片——但我们为客户交付的是大规模运行的系统,其有效的大规模运行必须仰赖英伟达的平台。 这听起来可能有点神奇,我们先是自己打造了一整套人工智能基础设施,然后将其进行分解,并按照客户的需求将各个部分整合到他们的数据中心之中,而且我们知道,在运行过程中,可能会出现哪些瓶颈,并且我们知道如何同客户协作完成基础设施的优化,如何帮助客户获得最佳的基础设施性能。在如此规模的数据中心部署方面的深厚知识,让英伟达在业界脱颖而出。公司的每一款芯片都是从无到有,我们确切地了解整个系统的处理是如何进行的,以及如何从每一代产品中获得最大收益。 Evercore ISI 分析师Mark Lipacis:黄仁勋此前曾提到过,通用计算生态系统通常在各个计算时代都占据了主导地位。我猜测这一结论是基于通用计算可以适应不同的工作负载,从而获得了更高的利用率,降低了计算周期的成本。这可能也是英伟达建立CUDA通用并行计算架构,推动实现GPU加速计算生态系统的一个动机。如果我哪里说得不对,请纠正我。 所以我的问题是,鉴于英伟达解决方案的需求主要受神经网络训练和推理方面工作的驱动,表面上看这些需求似乎比较有限,我知道这些解决方案可能也会满足某些定制化的需求。我想知道通用计算框架的市场需求是否存在风险?或者说,公司是否需要寻找其他工作负载,以支持这一框架的市场需求? 黄仁勋:没错,英伟达的加速计算用途广泛,但我不会称之为通用计算。比如,我们在运行电子表格方面做得就没有那么好,那才真正是为通用计算而设计的,操作系统代码的控制循环可能对于加速计算不是很适合。所以,我会说我们的加速计算是多用途的,多年来英伟达加速计算所应用的众多领域有着很多共同点,也有一些深刻的差异——都可以并行运行,都拥有大量线程,比如5%的代码占据了99%的运行时间,这些都是加速计算的特征。 过去大约10年中出现了数量巨大的创业公司,这推动了英伟达平台多功能性的发展,促使我们设计了整个系统。这些创业公司的架构延展性通常比较小,所以需要英伟达产品的助力,以实现对各种新技术,包括生成式人工智能、融合模型,或者下一个什么模型的兼容。比如面对带有记忆的大语言模型和理解上下午方面的需求,Grace处理器的多功能性就变得超级重要。生成式人工智能技术的每一次进步,都是对英伟达产品实现更为广泛用途的推动,推动我们实现一款产品满足整个领域的需求,推动软件的不断改进。 我们相信这些模型的适用范围将不断拓展,而且使用量会在未来几年增长一百万倍,对此我们充满期待,并且已经为此做好准备,英伟达平台的多功能特性是实现这些拓展的关键。但如果你的系统延展度过低,或者需求过为具体,我们建议不如部署FPGA微处理器或ASIC(专用集成电路),但那就不是严格意义上的计算机了。 杰弗瑞分析师Blayne Curtis:公司为中国市场推出了H20芯片,管理层怎么看这款产品的前景?我原本以为会有很大的市场需求,不过显然,我们也在努力满足其他Hopper产品的客户需求。那么今年下半年,管理层对于公司销售和毛利率有什么展望?H20产品的需求不足可能产生怎样的影响? 黄仁勋:我们尊重每一位客户,也会尽最大努力为每一位客户提供服务。我们会继续尽力为那里的客户提供服务,尽我们最大的能力做到最好。总的来说,我之前所提到的供不应求的情况,是针对市场整体情况而言的,特别是对于H200和Blackwell等产品而言,预计这种供不应求的情况将持续到年底。 Raymond James分析师Srini Pajjuri:对于刚才所提到的,可否请黄仁勋澄清几点。GB200系统的市场需求似乎很大,回顾历史,我们销售了很多HGX主板和一定数量的GPU,而系统业务相对较小。所以我很好奇,为什么目前对于系统的需求如此之大?仅仅是因为成本,还是有其他原因,或者是因为架构方面的需求? 黄仁勋:我们销售GB200的方式(同基础设施的销售方式)是一样的——把所有组件进行分解,并将其有机地整合到计算机制造商系统当中。今年针对Blackwell会有100种不同的计算机系统配置出现,非常惊人的组合。 坦率地讲,Hopper的计算机系统配置数量只有Blackwell的一半,但那已经是Hopper实现的峰值了,最初的时候数量还要少得多。所以投资者可以看到液冷版本、风冷版本、X86版本、Grace版本等等,有大量的配置系统正在设计之中,并将通过英伟达优质合作伙伴的生态系统来提供。 Blackwell平台极大地扩展了我们的产品范围。CPU的整合,更为紧凑的计算密度,以及液冷技术将为数据中心在电力供应方面节省大量资金,并提高能源效率。合作的各方都能从中获得利益——我们为数据中心提供了更多的组件,数据中心性能大幅提升,实现更高效的网络连接。当然,还有通过网卡,通过以太网,利用NVIDIA AI人工智能平台服务只在以太网部署生态系统的客户。Blackwell的服务范围将不断扩大。 Truist分析师William Stein:有一个问题想请问黄仁勋。虽然市场上有一些相当不错的CPU产品,可用于支持数据中心的运行,但英伟达基于ARM架构的Grace CPU具备更大的优势,可能是与成本、功耗或Grace/Hopper、Grace/Blackwell之间技术协同相关的优势。在客户端方面,会否出现类似的情况?市场已经有非常好的解决方案,英伟达也强调了同英特尔和AMD的良好合作关系,共同发布了基于X86的优秀产品。而人工智能工作负载的出现,在这个领域,英伟达有没有可能推出其他供应商更难以提供的优势产品? 黄仁勋: 对这个问题,你进行了非常不错地阐释。的确,对于许多应用而言,我们与相关公司在X86方面的合作非常好,我们一起打造了出色的系统,但Grace可以让我们做到一些在当前系统配置下不可能做到的事情。Grace和Hopper的内存系统是一致且相互连接的,这两款芯片的互连,其实称它们为两款芯片有点奇怪,因为它们合起来就类似一款超级芯片,可以通过接口实现每秒数太字节(TB)的传输,这是非常惊人的。Grace采用LPDDR内存,一种数据中心级别的低功耗内存,所以我们在每个节点上都节省了大量电力。 最后,由于我们现在已经可以利用这一系统创建我们自己的架构,而且是具有极大NVLink域的架构,对于下一代大语言模型的推理至关重要。所以大家可以看到GB200系统有72节点的NVLink 域,就好像72个Blackwell连接在一起形成的巨大GPU,我们需要Grace/Blackwell才能做到这一点。因此,我们说有架构方面的原因,有软件编程方面的原因,还有系统方面的原因,这一切对我们以这种方式构建架构是必不可少的。如果我们看到这样的机会,我们就会去探索。大家可能也关注到昨天的微软Build发布会内容,非常出色的产品表现,萨蒂亚(微软CEO)宣布了下一代个人电脑,主打Copilot+个人电脑的功能,笔记本产品中使用了英伟达的RTX GPU,运行表现非常出色,同时也很好地支持了ARM架构,为个人电脑的系统创新开辟了机会。 Cantor Fitzgerald分析师C.J. Muse:想请问黄仁勋一个公司远期发展的问题。Blackwell还没有正式发布,但投资者是具有前瞻性的。在GPU和定制ASIC竞争日益激烈的情况下,英伟达在过去十年中发布了CUDA,Precision,Grace等产品,你如何看待公司在这期间令人瞠目的百万倍增长?展望未来,未来十年公司需要解决哪些问题?有没有更多可以在今天同投资者分享的情况? 黄仁勋:我可以向大家宣布,在Blackwell之后,我们还会有另一款新的芯片产品,我们将保持一年一款新品的节奏。大家也可以期待我们在网络技术方面的新突破,我们将推出服务于以太网客户的Spectrum X网络平台,将全力投入以太网,我们在以太网领域的发展规划非常令人振奋。我们拥有丰富完备的合作伙伴生态系统,戴尔已经宣布把Spectrum-X推向市场,还有很多客户和合作伙伴都将发布采用英伟达人工智能工厂架构的产品。 对于那些追求极致性能的公司,我们的InfiniBand架构就是最佳选择,InfiniBand是一种计算架构,以太网是一种网络,而InfiniBand一开始是作为一种计算架构推向市场的,但逐渐发展成为一种越来越好用的网络。以太网是一种网络,而借助Spectrum-X,以太网成为一种更好用的计算架构。我们将全力投入,以非常快的速度推进NVLink计算架构、InfiniBand计算架构和以太网网络计算架构这三条链路的发展。 所以大家会看到英伟达的交换机新品,网卡新品,新的产能,以及在这三者上面运行的新软件栈。还有CPU新品,GPU新品,芯片新品等等。这些新品都将可以运行CUDA,以及英伟达所有的软件栈。客户在英伟达软件栈进行投资之后,无需其他任何操作,自身产品的运行速度就会变得越来越快。在投资英伟达架构产品之后,无需其他任何操作,客户就可以接入更多的云平台、更多的数据中心,一切运行都将非常顺滑。我们的超快创新速度,一方面会提升产能,另一方面能够降低成本。英伟达架构在新计算时代的扩展将开启一场新的工业革命,在这场工业革命中,我们不仅制造软件,还将大规模地制造人工智能词元(token)。(完) |