动下,网络收入同比几乎翻了一番。 对 NVIDIA 加速计算和 AI 平台的需求巨大。我们的供应合作伙伴在提高产能以满足我们的需求方面表现出色。我们的数据中心供应链,包括拥有 35,000 个零件和高度复杂网络的 HGX,是在过去十年中建立起来的。我们还为制造过程中的关键步骤(例如[音频不清晰]包装)开发了额外的产能和供应商,并对其进行了资格认证。 我们预计到明年每个季度供应量都会增加。从地理位置来看,随着客户将资本投资转向人工智能和加速计算,美国的数据中心增长最为强劲。中国需求占我们数据中心收入(包括计算和网络解决方案)的 20% 至 25%,处于历史范围内。 现在,让我花点时间谈谈最近有关我们对中国出口可能加强监管的报道。我们相信目前的监管正在达到预期效果。鉴于全球对我们产品的需求强劲,我们预计对数据中心 GPU 的额外出口限制如果采用,不会对我们的财务业绩产生直接重大影响。 然而,从长远来看,禁止向中国销售数据中心 GPU 的限制一旦实施,将导致美国工业永久失去在全球最大市场之一竞争和领先的机会。 我们的云服务提供商在本季度推动了对 HGX 系统的异常强劲需求,因为他们进行了代际过渡以升级其数据中心基础设施,以迎接加速计算和人工智能的新时代。NVIDIA HGX 平台是近二十年来跨芯片、系统、互连、网络、软件和算法的全堆栈创新的顶峰。 由 NVIDIA H100 Tensor Core GPU 提供支持的实例现已在 AWS、Microsoft Azure 和多家 GPU 云提供商处全面上市,其他提供商也将很快推出。消费互联网公司也带动了非常强劲的需求。他们对专门为人工智能构建的数据中心基础设施的投资已经产生了可观的回报。例如,Meta 最近强调,自从推出 Reels 以来,人工智能推荐使 Instagram 上花费的时间增加了 24% 以上。 企业也在竞相部署生成式 AI,推动云中 NVIDIA 支持的实例的强劲消耗以及对本地基础设施的需求。无论我们通过合作伙伴还是直接在云端或本地为客户提供服务,他们的应用程序都可以在 NVIDIA AI 企业软件上无缝运行,并可以访问我们的加速库、预训练模型和 API。 我们宣布与 Snowflake 建立合作伙伴关系,为企业提供使用自己的专有数据创建定制生成人工智能应用程序的加速路径,所有这些都安全地在 Snowflake 数据云中进行。借助用于开发大型语言模型的 NVIDIA NeMo 平台,企业将能够直接从 Snowflake 数据云为高级 AI 服务(包括聊天机器人、搜索和摘要)制作定制 LLM。 事实上,每个行业都可以从生成式人工智能中受益。例如,微软刚刚发布的AI Copilot可以提高超过10亿上班族和数千万软件工程师的生产力。法律服务、销售、客户支持和教育领域的数十亿专业人士将可以利用在其领域接受过培训的人工智能系统。AI Copilot 和助手将为我们的客户创造新的数千亿美元的市场机会。 我们看到了生成式人工智能在营销、媒体和娱乐领域的一些最早的应用。全球最大的营销和传播服务组织 WPP 正在使用 NVIDIA Omniverse 开发内容引擎,使艺术家和设计师能够将生成式 AI 集成到 3D 内容创作中。WPP 设计师可以根据文本提示创建图像,同时使用 NVIDIA Picasso(一家为视觉设计定制生成 AI 模型的代工厂)提供经过负责任培训的生成式 AI 工具以及来自 Adobe 和 Getty Images 等 NVIDIA 合作伙伴的内容。 视觉内容提供商 Shutterstock 还使用 NVIDIA Picasso 构建工具和服务,使用户能够借助生成式 AI 创建 3D 场景背景。我们与ServiceNow、埃森哲合作推出AI Lighthouse计划,快速跟踪企业AI能力发展。AI Lighthouse 将 ServiceNow 企业自动化平台和引擎与 NVIDIA 加速计算以及埃森哲咨询和部署服务相结合。 我们还与 Hugging Face 合作,简化企业新的自定义人工智能模型的创建。Hugging Face 将为企业提供一项新服务,用于训练和调整由 NVIDIA HGX 云支持的高级 AI 模型。就在昨天,VMware 和 NVIDIA 宣布推出一项名为 VMware Private AI Foundation with NVIDIA 的重要新企业产品,这是一个完全集成的平台,采用 NVIDIA 的 AI 软件和加速计算功能,并为运行 VMware 的企业提供多云软件。 VMware 的数十万企业客户将能够访问自定义模型和运行智能聊天机器人、助手、搜索和摘要等生成式 AI 应用程序所需的基础设施、AI 和云管理软件。我们还发布了全新 NVIDIA AI 企业级服务器,配备专为行业标准数据中心服务器生态系统构建的全新 NVIDIA L40S GPU 和 BlueField-3 DPU 数据中心基础设施处理器。 L40S 不受[音频不清晰]供应限制,正在向世界领先的服务器系统制造商发货(ph)。L40S 是一款通用数据中心处理器,专为大容量数据中心而设计,能够加速计算密集型应用,包括通过设计、可视化、视频处理和 NVIDIA Omniverse 工业数字化进行 AI 培训和发明。 NVIDIA AI 企业级服务器针对 VMware、Cloud Foundation 和 Private AI Foundation 进行了全面优化。戴尔、惠普和联想等全球领先的企业 IT 计算公司即将推出近 100 种配置的 NVIDIA AI 企业级服务器。GH200 Grace Hopper Superchip 将基于 ARM 的 Grace CPU 与 Hopper GPU 相结合,现已全面投入生产,并将于本季度在 OEM 服务器中上市。它还向多个超级计算客户发货,包括 Atmos (ph)、国家实验室和瑞士国家计算中心。 NVIDIA 和软银正在合作开发基于 GH200 的平台,用于生成式 AI 和 5G/6G 应用。配备最新 HBM3e 内存的第二代 Grace Hopper 超级芯片将于 2024 年第二季度推出。我们发布了 DGX GH200,这是一种新型大内存 AI 超级计算机,用于巨型 AI 语言模型、推荐系统和数据分析。这是新 NVIDIA [音频不清晰] 交换机系统的首次使用,使所有 256 个 Grace Hopper 超级芯片能够协同工作,与我们仅连接 8 个 GPU 的上一代产品相比,这是一个巨大的飞跃[音频不清晰]。DGX GH200 系统预计将于今年年底推出,Google Cloud、Meta 和 Microsoft 是首批获得访问权限的系统。 网络的强劲增长主要是由连接 HGX GPU 系统的 InfiniBand 基础设施推动的。凭借其端到端优化和网内计算能力,InfiniBand 为 AI 提供的性能是传统以太网的两倍以上。对于价值数十亿美元的人工智能基础设施来说,InfiniBand 增加的吞吐量所带来的价值价值数百[音频不清晰],并且可以为网络付费。此外,只有 InfiniBand 可以扩展到数十万个 GPU。它是领先的人工智能从业者的首选网络。 对于寻求优化 AI 性能的基于以太网的云数据中心,我们推出了 NVIDIA Spectrum-X,这是一个加速网络平台,旨在优化 AI 工作负载的以太网。Spectrum-X 将 Spectrum 或以太网交换机与 BlueField-3 DPU 结合起来,与传统以太网相比,整体 AI 性能和功效提高了 1.5 倍。BlueField-3 DPU 取得了重大成功。它已获得主要 OEM 厂商的认证,并在多个 CSP 和消费者互联网公司中推广。 现在转向游戏。博彩收入为 24.9 亿美元,环比增长 11%,同比增长 22%。用于笔记本电脑和台式机的 GeForce RTX 40 系列 GPU 推动了增长。最终客户需求强劲且与季节性相符。我们认为全球终端需求在去年放缓后已恢复增长。我们面前有一个巨大的升级机会。我们的安装基础中只有 47% 已升级到 RTX,约 20% 的 GPU 具有 RTX 3060 或更高性能。 在关键的返校季,笔记本电脑 GPU 实现了强劲增长,其中 RTX 4060 GPU 领衔。NVIDIA 的 GPU 驱动的笔记本电脑越来越受欢迎,其出货量现已超过全球多个地区的台式机 GPU。这可能会稍微改变我们整体游戏收入的现实,第二季度和第三季度是一年中表现强劲的季度,反映了笔记本电脑的返校和假期构建时间表。 在桌面领域,我们推出了 GeForce RTX 4060 和 GeForce RTX 4060 TI GPU,将 Ada Lovelace 架构的价格降至 299 美元。RTX和DLSS游戏的生态系统不断扩大。DLSS 支持新增 35 款新游戏,包括《暗黑破坏神 IV》和《博德之门 3》等热门游戏。 现在有超过 330 个 RTX 加速游戏和应用程序。我们正在将生成式人工智能引入游戏。在 COMPUTEX 上,我们发布了 NVIDIA Avatar Cloud Engine(游戏专用 ACE),这是一项定制 AI 模型代工服务。开发人员可以使用此服务为非玩家角色带来智能。它利用了多项 NVIDIA Omniverse 和 AI 技术,包括 NeMo、Riva 和 Audio2Face。 现在转向专业可视化。收入为 3.75 亿美元,环比增长 28%,同比下降 24%。Ada 架构的提升推动了第二季度的强劲增长,最初在笔记本电脑工作站中推出,第三季度将更新桌面工作站。其中包括功能强大的全新 RTX 系统,配备多达 4 个 NVIDIA RTX 6000 GPU,可提供超过 5,800 teraflops 的 AI 性能和 192 GB 的 GPU 内存。它们可以在内部配置 NVIDIA AI enterprise 或 NVIDIA Omniverse。 我们还发布了三款基于 Ada 一代的新型桌面工作站 GPU。与上一代相比,NVIDIA RTX 5000、4500 和 4000 提供高达 2 倍的 RT 核心吞吐量和高达 2 倍的 AI 训练性能。除了 3D 设计和内容创建等传统工作负载之外,生成式 AI、大型语言模型开发和数据科学领域的新工作负载正在为我们的 RTX 技术扩大专业可视化的机会。 Jensen 本月早些时候的主题演讲 [音频不清晰] 的关键主题之一是图形和人工智能的转换。这就是 NVIDIA Omniverse 的定位。Omniverse 是 OpenUSD 的原生平台。OpenUSD 是一种通用交换,正在迅速成为 3D 世界的标准,就像 HTML 是 2D 的通用语言一样[音频不清晰]。Adobe、Apple、Autodesk、Pixar 和 NVIDIA 共同组成了 OpenUSD 联盟。我们的使命是加速 OpenUSD 的开发和采用。我们宣布推出新的和即将推出的 Omniverse 云 API,包括 RunUSD 和 ChatUSD,为 OpenUSD 工作负载带来生成式 AI。 转向汽车领域。收入为 2.53 亿美元,环比下降 15%,同比增长 15%。基于[音频不清晰]或与许多新能源汽车制造商相关的自动驾驶平台的崛起推动了同比的稳健增长。环比下降反映出整体汽车需求下降,尤其是在中国。我们宣布与联发科技合作,为驾驶员和乘客带来全新的车内体验。联发科将开发汽车 SoC 并整合 NVIDIA GPU 小芯片的新产品线。此次合作涵盖从豪华车到入门级的广泛汽车领域。 转向损益表的其余部分。受数据中心销售额增长的推动,GAAP 毛利率扩大至 70.1%,非 GAAP 毛利率扩大至 71.2%。我们的数据中心产品包含大量软件和复杂性,这也有助于提高我们的毛利率。按公认会计原则 (GAAP) 计算的运营费用增长了 6%,非公认会计原则 (non-GAAP) 运营费用增长了 5%,主要反映了薪酬和福利的增加。我们以股票回购和现金股息的形式向股东返还约 34 亿美元。我们的董事会刚刚批准了额外 250 亿美元的股票回购,以增加我们截至第二季度末剩余的 40 亿美元的授权。 让我谈谈 2024 财年第三季度的前景。对我们的数据中心平台的需求,其中人工智能是巨大的,并且广泛应用于各个行业的客户。我们的需求可见性将延续到明年。随着我们缩短周期时间并与供应合作伙伴合作增加产能,我们在未来几个季度的供应将继续增加。此外,新的 L40S GPU 将有助于满足从云到企业的多种类型工作负载不断增长的需求。 第三季度总收入预计为 160 亿美元,上下浮动 2%。我们预计连续增长将主要由数据中心推动,游戏和 ProViz 也将做出贡献。GAAP 和非 GAAP 毛利率预计分别为 71.5% 和 72.5%,上下浮动 50 个基点。GAAP 和非 GAAP 运营费用预计分别约为 29.5 亿美元和 20 亿美元。 GAAP 和非 GAAP 其他收入和支出预计约为 1 亿美元,不包括非关联投资的损益。GAAP 和非 GAAP 税率预计为 14.5%,上下浮动 1%(不包括任何离散项目)。更多财务细节包含在 CFO 评论和我们的 IR 网站上提供的其他信息中。 最后,让我强调一下金融界即将发生的一些事件。我们将参加 8 月 30 日在芝加哥举行的 Jefferies 科技峰会、9 月 5 日在旧金山举行的高盛会议、9 月 6 日在纽约举行的 Evercore 半导体会议以及 9 月 7 日在纽约举行的花旗科技会议。美国银行虚拟人工智能会议将于 9 月 11 日举行。我们定于 11 月 21 日星期二召开财报电话会议,讨论 2024 财年第三季度的业绩。 问答环节 马特·拉姆齐 是的。非常感谢。下午好。显然,成果显着。Jensen,我想问你一个关于大型模型推理的快速新兴应用的问题。因此,我认为大多数投资者都非常清楚,你们在培训市场上占有很大的份额。过去,许多较小的市场——较小的模型推理工作负载都是在 ASIC 或 CPU 上完成的。 对于许多这样的 GPT 和其他非常大的模型,这种新的工作负载可以在大型模型推理上快速加速超级欺骗。我认为你们的 Grace Hopper Superchip 产品和其他产品非常适合这一点。但是您能否与我们谈谈您如何看待小模型推理和大型模型推理之间的推理市场细分以及您的产品组合如何定位?谢谢。 黄仁勋 是的。多谢。那么让我们快速退后一步。这些大型语言模型相当惊人。当然,它可以做几件事。它具有理解非结构化语言的能力。但其核心是,它学到的是人类语言的结构。它已经编码或压缩了它通过研究的语料库学到的大量人类知识。发生的情况是,您创建了这些大型语言模型,并且创建了尽可能大的语言模型,然后从中派生出模型的较小版本,本质上是师生模型。这是一个称为蒸馏的过程。 因此,当你看到这些较小的模型时,很可能它们是从较大的模型派生、提炼或学习的,就像你有教授、老师和学生等等。未来你将会看到这一点。因此,您从一个非常大的模型开始,它具有大量的通用性和泛化性以及所谓的零样本能力。因此,对于许多您没有专门训练过的应用程序、问题或技能,这些大型语言模型奇迹般地有能力执行它们。这就是它如此神奇的原因。 另一方面,您希望在各种计算设备中都具有这些功能,因此您要做的就是将它们提炼出来。这些较小的模型可能在特定技能上具有出色的能力,但它们也不能概括。他们不具备所谓的良好的零射击能力。因此,它们都有自己独特的功能,但您是从非常大的模型开始的。 维韦克·艾莉亚 谢谢。只是进行了快速澄清和提问。Colette,能否请您澄清一下您预计明年上线的增量供应量是多少?你认为上涨了20%、30%、40%、50%?所以,你知道供应量有多少,因为你说供应量每个季度都在增长。 然后 Jensen,你的问题是,当我们查看超大规模的总体支出时,购买量并没有真正增长那么多。那么,是什么让您有信心他们能够继续为生成人工智能做出更大的贡献呢?请告诉我们,当我们展望未来一到两年时,这种需求的可持续性如何?因此,如果我按照您隐含的数据中心第三季度前景预测,即 120 亿美元、130 亿美元,这说明有多少服务器已经进行了 AI 加速?那要去哪里?因此,只要相信您所看到的增长在未来一到两年内可持续即可。 科莱特·克雷斯 感谢您提出有关我们供应的问题。是的,我们确实预计在接下来的几个季度以及下一财年继续增加我们的供应。就百分比而言,我们这里没有。这是一项涉及许多不同供应商、构建 HGX 以及我们即将上市的许多其他新产品的许多不同部分的工作。但我们对供应商的支持以及我们与他们一起改善供应的长期合作感到非常满意。 黄仁勋 全球已安装了价值约 1 万亿美元的数据中心,分布在云、企业和其他地方。价值 1 万亿美元的数据中心正在转型为加速计算和生成人工智能。我们同时看到两个同步平台转换。一是加速计算。原因是它是目前最具成本效益、最节能和最高效的计算方式。 所以你所看到的,然后突然之间,由生成式人工智能、由加速计算和生成式人工智能支持的出现了。这个令人难以置信的应用程序现在为每个人提供了两个理由,以实现从通用计算(传统的计算方式)到这种新的计算方式(加速计算)的平台转变。数据中心每年的资本支出约为 1 万亿美元,即 0.25 万亿美元。 您会看到世界各地的数据中心正在将资本支出集中在当今计算的两个最重要的趋势上,即加速计算和生成人工智能。所以我认为这不是近期的事情。这是一个长期的行业转型,我们看到这两个平台转变同时发生。 史黛西·拉斯冈 嗨,大家好。感谢您提出我的问题。我想知道 Colette,您能否告诉我本季度的数据中心有多少,甚至可能指南就像系统与 GPU,就像 DGX 与 H100 一样?我真正想要了解的是,定价或内容有多少,或者你想如何定义[音频不清晰],与实际推动未来增长的单位相比。你能给我们一些关于它的颜色吗? 科莱特·克雷斯 当然,史黛西。让我来帮忙。在本季度内,我们的 HGX 系统是我们数据中心以及我们所看到的数据中心增长的非常重要的一部分。这些系统包括我们的 Hopper 架构的 HGX,以及我们的 Ampere 架构。是的,我们仍在市场上销售这两种架构。现在,当您考虑这一点时,这对两个系统作为一个整体意味着什么,当然,这两个系统都在大幅增长,并且这推动了收入的增长。因此,这两件事都是数据中心内部收入的驱动因素。 我们的 DGX 始终是我们将销售的附加系统的一部分。对于企业客户和我们在消费者互联网公司中看到的许多其他不同类型的客户来说,这些都是巨大的机会。与我们随 DGX 一起销售的软件相结合也很重要,但这是我们正在进行的销售的一部分。其余的 GPU,我们有新的 GPU 即将上市,我们谈论的是 L40S,它们将在未来带来持续的增长。但同样,上个季度我们收入的最大推动力无疑是 HGX 系统。 黄仁勋 史黛西,如果我可以补充一些东西的话。你说它是H100,我知道你知道你心目中的形象是什么。但 H100 由 35,000 个零件、70 磅、近 1 万亿个晶体管组合而成。需要一个机器人来建造——嗯,需要建造很多机器人,因为它要举起 70 磅。测试超级计算机需要超级计算机。因此,这些东西都是技术奇迹,而且它们的制造确实非常密集。因此,我认为我们将其称为 H100,就好像它是从晶圆厂生产的芯片一样,但 H100 实际上是作为 HGX 发送给世界各地的超大规模企业而推出的,如果你愿意的话,它们确实是非常非常大的系统组件。 马克·利帕西斯 你好。感谢您提出我的问题并祝贺我的成功。Jensen,这似乎是成功的关键部分——您在市场上的成功在于提供软件生态系统以及芯片和硬件平台。我对此有一个由两部分组成的问题。我想知道您是否可以帮助我们了解您的软件生态系统的演变以及关键要素。有没有一种方法可以量化您在这个维度上的领先地位,例如您投入了多少人年来构建它?然后是第二部分,我想知道您是否愿意与我们分享您对以下问题的看法:硬件差异化与软件差异化在 NVIDIA 平台的价值中所占的比例是多少?谢谢。 黄仁勋 是的,马克,我真的很感激这个问题。让我看看是否可以使用一些指标,这样我们就有一个名为 AI Enterprise 的运行时。这是我们软件堆栈的一部分。如果您愿意的话,这就是几乎每个公司用于从数据处理进行端到端机器学习的运行时间,以及您想要在任何框架上进行的任何模型的训练、推理和部署,将其扩展到数据中心。它可能是超大规模数据中心的横向扩展。它可以是企业数据中心的横向扩展,例如在 VMware 上。 您可以在我们的任何 GPU 上执行此操作。我们在现场拥有数亿个 GPU,在云端以及几乎每个云中拥有数百万个 GPU。它可以在单 GPU 配置以及每个计算或多节点的多 GPU 配置中运行。每个 GPU 还具有多个会话或多个计算实例。因此,从每个 GPU 多个实例到多个 GPU、多个节点到整个数据中心规模。因此,这个名为 NVIDIA AI enterprise 的运行时拥有大约 4,500 个软件包、软件库,并且彼此之间具有大约 10,000 个依赖项。 正如我所提到的,运行时间针对我们堆栈的安装基础不断更新和优化。这只是加速计算发挥作用所需的示例之一。代码组合的数量和应用程序组合的类型确实相当疯狂。我们花了二十年才走到这一步。但如果你愿意的话,我认为我们公司的要素可能有几个。我想说第一是建筑。 我们架构的灵活性、多功能性和性能使我们能够完成我刚才所说的所有事情,从数据处理到训练到推理,在推理之前对数据进行预处理,再到后期处理。数据,语言标记化,以便您可以用它进行训练。工作流程的数量比训练或推理要密集得多。但无论如何,这就是我们关注的焦点,这很好。但当人们实际使用这些计算系统时,需要大量的应用程序。因此,我们的架构组合使我们能够提供最低的拥有成本。原因是我们加速了许多不同的事情。 我们公司的第二个特点是安装基础。你要问自己,为什么所有的软件开发者都来到我们的平台?原因是软件开发人员寻求庞大的安装基础,以便能够接触到最大数量的最终用户,从而可以建立业务或获得投资回报。 第三个特征是覆盖范围。今天我们在云中,无论是公共云还是面向公众的云,因为我们有这么多的客户在使用——这么多的开发人员和客户在使用我们的平台。通信服务提供商很高兴将其放置在云端。他们将其用于内部消费,以开发、培训和操作推荐系统或搜索或数据处理引擎等等,直至培训和推理。所以我们在云中,我们在企业中。 昨天,我们宣布了一个非常重大的消息。确实值得一看。VMware 是全球企业的操作系统。我们已经合作了好几年了,我们将齐心协力,将生成式人工智能带给世界各地的企业,直至边缘。因此,影响力是另一个原因。由于影响范围广,全球所有系统制造商都渴望将 NVIDIA 的平台放入他们的系统中。因此,由于我们的影响力,我们拥有来自世界各地的 OEM 和 ODM 等的非常广泛的分销。 最后,由于我们的规模和速度,我们能够在所有这些不同的使用模型和不同的计算环境中维持这个非常复杂的软件和硬件、网络和计算堆栈。我们能够在加快工程速度的同时完成这一切。我们似乎每两年就会引入一种新架构。现在,我们大约每六个月就会推出一种新架构、一种新产品。因此,这些特性使生态系统能够在我们之上建立他们的公司和业务。因此,这些因素的结合使我们变得与众不同。 阿蒂夫·马利克 你好。感谢您回答我的问题。在结果和前景方面做得很好。Colette,我有一个关于你们谈论的核心 L40S 的问题。您知道 L40S 能在多大程度上缓解供应紧张问题吗?您能否谈谈该产品的增量盈利能力或毛利率贡献?谢谢。 黄仁勋 是的,阿提夫。让我帮您拿一下。L40S 确实是为不同类型的应用而设计的。H100 专为大规模语言模型而设计,仅处理非常大的模型和大量数据。所以这不是 L40S 的重点。L40S 的重点是能够微调模型,微调预训练模型,它会做得非常好。它有一个变换引擎。它有很多性能。您可以在一台服务器中获得多个 GPU。它专为超大规模横向扩展而设计,这意味着可以轻松地将 L40S 服务器安装到世界超大规模数据中心。它采用标准机架、标准服务器,一切都是标准的,因此易于安装。 L40S 还包含围绕它的软件堆栈以及 BlueField-3 以及我们与 VMware 所做的所有工作以及我们与 Snowflakes 和 ServiceNow 以及许多其他企业合作伙伴所做的工作。L40S专为全球企业IT系统而设计。这就是为什么 HPE、戴尔、联想以及其他大约 20 家系统制造商构建了大约 100 种不同配置的企业服务器,将与我们合作,将生成式 AI 引入全球企业。因此,如果您愿意的话,L40S 确实是为不同类型的横向扩展而设计的。当然,这是大型语言模型。当然,它是生成式人工智能,但它是一个不同的用例。因此,L40S 将是一个良好的开端,世界各地的企业和超大规模企业都迫切希望部署 L40S。 约瑟夫·摩尔 伟大的。谢谢。我想这些数字对我来说如此引人注目的是与您的一些客户交谈后仍未满足的需求量。尽管这些数字不错,但您的收入在几个季度内增加了两倍多。在某些情况下,人们所获得的需求是数倍的。那么你能谈谈这个吗?您认为还有多少未满足的需求?您谈到了明年的可见性。当你看到这里的供需平衡时,你能看到吗? 黄仁勋 是的。我们全年和明年都有良好的能见度。我们已经与领先的通信服务提供商和数据中心建设者一起规划下一代基础设施。需求——思考需求的最简单方式,世界正在从通用计算向加速计算过渡。这是考虑需求的最简单方法。企业提高吞吐量、提高能源效率、提高成本效率的最佳方式是将资本预算转移到加速计算和生成式人工智能上。因为通过这样做,您将从 CPU 上卸载大量工作负载,但数据中心中的可用 CPU 将会得到提升。 因此,你现在看到的公司所做的就是认识到这一点——这里是转折点,认识到这一转变的开始,并将其资本投资转向加速计算和生成人工智能。因此,这可能是思考我们面前的机会的最简单的方法。这不是一个推动需求的单一应用程序,但这是一个新的计算平台,如果你愿意的话,这是一个正在发生的新的计算转变。世界各地的数据中心正在对此做出反应并进行广泛的转变。 哈里敏也 你好。感谢您提出问题。我向 Colette 提出了一个快速澄清的问题,然后向 Jensen 提出了另一个问题。Colette,我记得上个季度,您曾说过 CSP 约占您数据中心收入的 40%,消费者互联网占 30%,企业占 30%。根据您的评论,听起来 CSP 和消费者互联网可能在您的业务中所占的比例更大。如果您能澄清或确认这一点,那将非常有帮助。 然后是詹森,问你一个问题。考虑到您作为人工智能关键推动者的地位、参与的广度以及您对客户项目的可见性,我很好奇您对有足够的应用程序或用例为您的客户带来合理的回报有多大信心?投资。我想我问这个问题是因为有人担心未来几年您的需求状况可能会有所停顿。很好奇是否有足够的广度和深度来支持您的数据中心业务的持续增长。谢谢。 科莱特·克雷斯 好的。谢谢你,Toshiya,关于我们数据中心业务中的客户类型的问题。我们从将计算和网络结合在一起的角度来看待它。我们的 CSP、我们的大型 CSP 在第二季度贡献了我们收入的 50% 以上。下一个最大的类别将是我们的消费互联网公司。最后一部分将是我们的企业和高性能计算。 黄仁勋 Toshi,我不愿意猜测未来,所以我将从计算机科学第一原理的角度来回答这个问题。一段时间以来,人们认识到通用计算并不是强制通用计算。大规模使用通用计算不再是前进的最佳方式。它的能源成本太高,太昂贵,而且应用程序的性能太慢。 最后,世界有了一种新的实现方式。这就是所谓的加速计算,而推动它加速发展的是生成式人工智能。但加速计算可用于数据中心已有的各种不同应用程序。通过使用它,您可以减轻 CPU 的负担。您可以节省大量资金、成本和能源,并且吞吐量更高,这就是行业真正的反应。 展望未来,投资数据中心的最佳方式是将资本投资从通用计算上转移出来,集中到生成式人工智能和加速计算上。生成式 AI 提供了一种提高生产力的新方式、一种生成为客户提供的新服务的新方式,而加速计算可帮助您节省资金和电力。申请的数量是成吨的。很多开发人员、很多应用程序、很多库。它已准备好部署。 因此,我认为世界各地的数据中心都认识到这一点,这是部署资源、为数据中心部署资本的最佳方式。对于全世界的云来说都是如此,您会看到一大批新的 GPU 专业——GPU 专业云服务提供商。其中著名的公司之一是 CoreWeave,他们做得非常好。但您现在看到的区域 GPU 专业服务提供商遍布世界各地。正是因为他们都认识到同一件事,未来投资资本的最佳方式是将其投入加速计算和生成人工智能。 我们也看到企业希望这样做。但为了让企业做到这一点,你必须支持企业的管理系统、操作系统、安全性和软件定义的数据中心方法,而这就是VMware。我们多年来一直与VMware合作,使VMware不仅支持CPU虚拟化,还支持GPU虚拟化以及GPU的分布式计算能力,支持NVIDIA的BlueField高性能网络。 我们一直在开发的所有生成式 AI 库现在都将由 VMware 销售人员作为特殊 SKU 提供,众所周知,该销售人员规模相当大,因为它们覆盖了全球数十万 VMware 客户。世界。这个新的 SKU 将被称为 VMware Private AI Foundation。而这将是一个让企业成为可能的新SKU。结合惠普、戴尔和联想基于 L40S 的新服务器产品,任何企业都可以拥有最先进的人工智能数据中心,并能够参与生成式人工智能。 因此,我认为这个问题的答案很难准确预测每个季度会发生什么。但我认为现在我们看到了平台的转变,趋势非常非常明显。 蒂莫西·阿库里 多谢。您能谈谈您的网络解决方案与您正在运输的计算的连接率吗?换句话说,您的网络解决方案的计算量的一半是多于一半,还是少于一半?您是否可以使用它来确定 GPU 分配的优先级?谢谢。 黄仁勋 好吧,反过来看,我们不会用它来确定 GPU 分配的优先级。我们让客户决定他们想要使用什么网络。对于正在构建超大型基础设施的客户来说,InfiniBand(我不想这么说)是理所当然的选择。其原因在于 InfiniBand 的效率非常显着,对于 10 亿美元的基础设施而言,吞吐量提高约 10%、15%、20% 可以转化为巨大的节省。基本上,网络是免费的。 因此,如果您有一个应用程序(如果您愿意)、基础设施或者主要致力于大型语言模型或大型人工智能系统,那么 InfiniBand 确实是一个绝佳的选择。然而,如果您为许多不同的用户托管,并且以太网确实是您管理数据中心方式的核心,那么我们最近刚刚宣布了一个出色的解决方案,它被称为 Spectrum-X。好吧,如果您愿意的话,我们将把 InfiniBand 的功能(不是全部,而是其中的一部分)引入以太网,这样我们也可以在以太网环境中,让您能够 – 让您能够获得卓越的生成人工智能能力。 所以 Spectrum-X 现在才刚刚起步。它需要 BlueField-3,并且支持我们的 Spectrum-2 和 Spectrum-3 以太网交换机。而且附加的性能确实非常惊人。BlueField-3 以及与之配套的一整套软件使之成为可能。正如你们所知,BlueField 是一个我非常珍视的项目,而且它只是一个巨大的开始。我认为这是一个本垒打。这就是网络内计算的概念,将大量软件放入计算结构中正在通过 BlueField-3 实现,这将是一个本垒打。 本杰明·雷茨 你好。下午好。晚上好。谢谢你的提问,让我来到这里。我的问题是关于 DGX Cloud 的。您能谈谈您所看到的反响以及势头如何吗?Colette,您能谈谈您的软件业务吗?目前的运行率以及该业务的重要性是多少?看起来它确实已经对利润率有所帮助。非常感谢。 黄仁勋 DGX Cloud 的策略,让我从这里开始。DGX Cloud 的战略是实现几件事:第一,使我们与世界各地的 CSP 之间建立真正密切的合作伙伴关系。我们认识到,我们的许多公司与世界各地约 30,000 家公司合作。其中 15,000 家是初创公司。其中有数千家是生成式人工智能公司,而增长最快的领域当然是生成式人工智能。我们正在与世界上所有的人工智能初创企业合作。最终,他们希望能够降落在世界领先的云之一上。因此,我们将 DGX Cloud 作为世界领先云中的一个足迹,以便我们可以同时与所有 AI 合作伙伴合作,并帮助他们轻松地将它们融合到我们的云合作伙伴之一中。 第二个好处是,它允许我们的 CSP 和我们自己真正紧密地合作,以提高超大规模云的性能,超大规模云历来是为多租户设计的,而不是为生成式 AI 等高性能分布式计算而设计的。因此,能够在架构上紧密合作,让我们的工程师携手合作,提高网络性能和计算性能,这真的非常强大,非常棒。 第三,当然,NVIDIA 自己也使用非常庞大的基础设施。而我们的自动驾驶汽车团队、我们的 NVIDIA 研究团队、我们的生成式 AI 团队、我们的语言模型团队,我们需要的基础设施数量是相当可观的。如果没有我们的 DGX 系统,我们的优化编译器就不可能实现。如今,甚至编译器也需要人工智能,优化软件和基础设施软件甚至需要人工智能来开发。我们的工程部门使用人工智能来设计我们的芯片,这一点已经广为人知。 因此,内部——我们自己对人工智能的消费、我们的机器人团队等等、Omniverse 团队等等,都需要人工智能。所以我们的内部消耗也相当大,我们把它放在DGX Cloud上。因此,DGX Cloud 拥有多个用例、多个驱动程序,并且取得了巨大的成功。我们的 CSP 喜欢它,开发人员喜欢它,我们自己的内部工程师也强烈要求拥有更多它。这是我们与世界各地的人工智能生态系统密切接触和合作的好方法。 科莱特·克雷斯 让我们看看我是否可以回答您有关我们软件收入的问题。在我们的开场白中,请记住,软件是我们几乎所有产品的一部分,无论是我们的数据中心产品、GPU 系统还是我们游戏和未来汽车产品中的任何产品。你是对的,我们也在独立业务中销售它。在我们提供软件服务和升级的地方,独立软件继续增长。 现在我们看到,我们的软件业务每年可能有数亿美元,我们正在考虑将 NVIDIA AI 企业纳入我们销售的许多产品中,例如我们的 DGX,例如作为 H100 的 PCIe 版本。我认为即使在我们的 CSP 市场中,我们也会看到更多的可用性。所以我们有了一个良好的开端,我相信我们会看到这种情况继续发展。 黄仁勋 新的计算时代已经开始。该行业正在同时经历两个平台转型:加速计算和生成式人工智能。数据中心正在将平台从通用计算转向加速计算。价值 1 万亿美元的全球数据中心将过渡到加速计算,以实现更高数量级的性能、能源效率和成本。加速计算催生了生成式人工智能,它正在推动软件平台的转变,并实现前所未有的新应用。加速计算和生成式人工智能共同推动了广泛的计算机行业平台转变。 我们的需求是巨大的。我们正在大幅扩大生产能力。今年剩余时间和明年的供应量将大幅增加。NVIDIA 已经为此准备了二十多年,并创建了一个新的计算平台,全世界的工业都可以在此基础上进行构建。NVIDIA 的特殊之处在于:一是架构。NVIDIA 加速了从数据处理、训练、推理、每个 AI 模型、实时语音到计算机视觉、从巨型推荐到矢量数据库的一切。我们架构的性能和多功能性可转化为最低的数据中心总体拥有成本和最佳的能源效率。 二、安装基础。NVIDIA 在全球拥有数亿个兼容 CUDA 的 GPU。开发人员需要庞大的安装基础来接触最终用户并发展业务。NVIDIA 是开发人员的首选平台。更多开发人员创建更多应用程序,使 NVIDIA 对客户更有价值。三、到达。NVIDIA 涉足云、企业数据中心、工业边缘、PC、工作站、仪器和机器人领域。每个都有根本上独特的计算模型和生态系统。OEM、计算机 OEM 等系统供应商可以放心地投资 NVIDIA,因为我们提供了巨大的市场需求和覆盖范围。规模和速度。NVIDIA 已实现显着规模,并 100% 投资于加速计算和生成式 AI。我们的生态系统合作伙伴可以相信我们拥有专业知识, 由于这些能力的叠加结果,我们正在加速。我们大约每六个月(而不是每两年)升级并添加新产品,以应对不断扩大的生成人工智能领域。虽然我们增加了 H100 的输出以用于大型语言模型的训练和推理,但我们正在加大新的 L40S 通用 GPU 的规模、云横向扩展和企业服务器的规模。Spectrum-X 由我们的以太网交换机、BlueField-3 Super NIC 和软件组成,可帮助希望在以太网基础设施上获得最佳 AI 性能的客户。客户已经在使用我们的 Grace Hopper 开发下一代加速计算和生成人工智能。 我们正在将 NVIDIA AI 扩展到需要生成式 AI 但同时具有隐私、安全和主权模型的全球企业。我们与全球领先的企业 IT 公司 Accenture、Adobe、Getty、Hugging Face、Snowflake、ServiceNow、VMware 和 WPP 以及我们的企业系统合作伙伴 Dell、HPE 和 Lenovo 一起,为全球企业带来生成式 AI。我们正在构建 NVIDIA Omniverse,以实现数字化,并使世界上价值数万亿美元的重工业能够使用生成式 AI 来自动化他们构建和运营实体资产的方式,并实现更高的生产力。生成式人工智能始于云端,但最重要的机会出现在世界上最大的行业中,企业可以在这些行业中实现数万亿美元的生产力提升。对于 NVIDIA、我们的客户来说,这是一个激动人心的时刻,合作伙伴和整个生态系统来推动计算的这一代转变。我们期待向您通报下季度的最新进展。 操作员 今天的电话会议到此结束。您现在可以断开连接。lg...