英伟达24Q1业绩会完整记录,附股

本文首发于“君实财经”微信公众号,发布时间:2024-05-23

最新纪要研报请微信扫码关注“君实财经”

每天精选消费、医药、互联网、新能源等最新调研纪要和报告,缩小你与一线产业的信息差!

英伟达2024Q1财报会议问答环节完整记录

业绩会要点(完整记录往下拉)

英伟达Q1业绩超预期,产业链及核心概念股梳理

事件:5月23日,英伟达公布FY2025Q1财报,Q1营收和盈利均超出预期,并宣布对股票进行“1拆10”,并将季度分红提高150%。

FY2025Q1业绩和Q2展望超预期

FY2025Q1,营收260亿美元,同比增长262%,分析师事前预期为246.5亿美元;净利润148.8亿美元,同比增长628%;每股收益5.98美元,同比增长629%,分析师事前预期为每股5.59美元;毛利率为78.4%,去年同期为64.6%。

2025财年Q2业绩展望:营收预计为280亿美元,上下浮动2%;GAAP毛利率预计为74.8%,上下浮动50个基点,预计全年毛利率70%左右。

数据中心占比大幅提升:

①数据中心收入为225.63亿美元,同比增长427%,源自于Hopper架构GPU出货量的增加,大型云服务提供商约占数据中心收入的45%。网络收入达32亿美元,同比增长3倍+。

②游戏/专业可视化/汽车/OEM及其他业务收入分别为26.47、4.27、3.29、0.48亿美元,分别同比+18%、+45%、+11%、+1%。

英伟达业务面扩容、GB200发货提速

①英伟达打造整个数据中心,已经变成一个系统供应商,而不仅局限于GPU卖家。

目前大约有1.5万到2万家跨领域的AIGC初创公司正等待成为英伟达的客户,并获得英伟达的设备来训练模型。

②Blackwell平台已全面投产。Blackwell芯片将在第二季度出货,第三季度将增产,预计今年将带来大量收入。

③H100GPU供应情况有所改善、H200供应仍然短缺。预计本季度对Hopper芯片的需求将不断增加。

相关标的:

(1)服务器:工业富联、浪潮信息、中科曙光、紫光股份、华勤技术、神州数码、软通动力、中国长城;

(3)液冷:飞荣达、中航光电、英维克、VERTIV;

(4)光模块:中际旭创、天孚通信、新易盛;

(5)GPU:海光信息、寒武纪、龙芯中科等。

附产业链和合作商梳理

相关产业链公司:

1)计算芯片:寒武纪、海光信息、长电科技、通富微电;

2)PCB产业链:沪电股份、生益科技、联瑞新材、生益电子、兴森科技、深南电路;

3)存储芯片:澜起科技、雅克科技、深科技;

4)服务器散热:英维克、依米康、华为数字能源、中兴通讯、浪潮信息、中科曙光、双鸿科技、健策精密、富信科技、中石科技;

5)光芯片/光模块:中际旭创、源杰科技、天孚通信。

6)玻璃基板:沃格光电、雷曼光电、安彩高科。

7)TGV(玻璃通孔)设备厂商:五方光电、帝尔激光、德龙激光、赛微电子、三超新材、天承科技。

8)扇出型封装:文一科技、曼恩斯特、晶方科技、长电科技、通富微电、华天科技、劲拓股份、甬矽电子、实益达、易天股份等;

9)高速连接器:华丰科技、兆龙互连、新亚电子、鼎通科技、金信诺、博威合金等。

A股核心“英伟达概念”梳理:

鸿博股份:英博数科为英伟达提供算力出租。

中际旭创:800G先发优势显著,作为英伟达&谷歌的重要供应商,将受益于AGC持续催化+头部企业对于800G光模块需求。(英伟达上游)

天孚通信:光引擎二期已开工、23年英伟达占收比高。

胜宏科技:英伟达国内算力板第一供应商,已经拿到了英伟达50%显卡的全球市场份额,在AI服务器方向,有接近10个算力板料号正在过英伟达的认证。(英伟达上游)

工业富联:英伟达AI服务器领先合作伙伴,预计工业富联有望在英伟达数据中心业务中占据40%份额。

和林微纳:公司已成为英伟达GPU芯片上游核心探针供应商,探针需求量与GPU产能呈线性关系(英伟达上游)

博杰股份:在GPU领域,公司产品在GPU领域可以做板级检测,与英伟达有合作订单,主要是给英伟达做板卡检测,测试板上的制程问题,

铂科新材:英伟达芯片电感软磁粉芯独家供应商(英伟达上游)

景旺电子:公司在英伟达的合格供应商名单内,目前已实现对客户的批量供货,针对AI服务器的产品有参与客户开发和验证流程

中电港:英伟达在国内的授权分销商之一

精研科技:英伟达芯片散热供应商

腾景科技:精密光学元组件,光纤器件等产品为光通信产业链上游,DWDM滤光片应用于数据中心光模块,供货中际旭创。(英伟达上游)

部分英伟达合作商:

金百泽:旗下造物工厂与英伟达展开gpu算力深度开发合作

鸿博股份:北京AI创新赋能中心由鸿博股份与英伟达协议发起,,为英伟达提供算力出租。

顺网科技:英伟达早期大陆合作伙伴,此前有纪要传与英伟达合作a800进入大陆

千方科技:子公司宇视科技与英伟达联合开发服务器。

先进数通:互动易表示,本公司是英伟达NVIDAAI、Compute业务领域Elite级合作伙伴。Elite是NVIDIA最高等级(精英级)合作伙伴,目前NVIDIAAI在中国地区的精英级合作伙伴共11家。

中富通:公司的孙公司英博达(持股70%)与英伟达深度合作,主要产品包括NVIDIA/AMD系显卡,XCL/XCF系列国产芯片,服务器,KRvision边缘计算平台.微软也是英博达上游合作方。

中电港:公司的授权分销产品线包括AMD、英伟达。

奥比中光:公司新品3DiToF相机FemtoMega,由公司与微软、英伟达联合研发制造,融合微软第一代深度相机AzureKinect的全部性能,并集成英伟达JetsonNano深度算力平台。

工业富联:工业富联的云计算服务器出货量持续维持全球第一,为英伟达提供算力服务系统

业绩会问答环节

(1)Operator

第一个问题来自thelineofStacyRasgonwithBernstein.

StacyRasgon

我的第一个问题是关于Blackwell:听说它现在已经全面生产了,这是否意味着它现在不再是样品而是已经进入到生产阶段?如果已经在生产中,那什么时候会真正交付到客户手中?

老黄

我们将很快开始出货。实际上,我们已经生产了一段时间了。出货将从24年Q2开始,并在Q3加速,客户在Q4可以在数据中心使用Blackwell

StacyRasgon

明白了。所以今年我们会看到Blackwell的收入,对吗?

JensenHuang

今年会有大量的Blackwell营收

(2)Operator

下一个问题来自瑞银的TimothyArcuri

TimothyArcuri

我想问一下Blackwell与Hopper部署的区别,尤其是在系统性质和GPU需求方面。大规模液冷以前没有做过是否存在工程上的挑战?这些复杂性是否会延长过渡时间?你们如何看待这些问题的进展?

JensenHuang

是的,Blackwell有很多配置。Blackwell是一个平台,而不是一个GPU。这个平台包括对风冷、液冷、x86和Grace、InfiniBand、现在的Spectrum-X以及我在GTC上展示的非常大的NVLink域的支持。因此,对于一些客户来说,他们将逐步过渡到现有的已经部署Hopper的数据中心,从H100轻松过渡到H200再到B100。所以,Blackwell系统在电气和机械方面都设计为向后兼容。当然,在Hopper上运行的软件栈在Blackwell上也能完美运行。

我们也已经在整个生态系统中进行了准备,让他们为液冷做好准备。我们已经与生态系统讨论Blackwell相当长一段时间了。CSP(云服务提供商)、数据中心、ODM(原始设计制造商)、系统制造商、我们的供应链、冷却供应链基础、液冷供应链基础、数据中心供应链基础,没有人会对Blackwell的到来感到惊讶,以及我们希望通过GraceBlackwell200提供的能力。GB200将会非常出色

(3)Operator

接下来是美国银行证券的VivekArya,请提问

JosephMoore

感谢你们回答我的问题。Jensen,你们如何确保产品的利用率充足,并且不会因为供应紧张、竞争或其他因素导致提前拉货或持有行为?基本上,你们在系统中建立了哪些检查机制,以确保产品的货币化速度能够跟上你们非常强劲的出货增长?

JensenHuang

嗯,我先从大局观来回答你的问题,然后再直接回答你的问题。所有数据中心对GPU的需求是难以置信的。我们每天都在快速前进。这是因为像ChatGPT和GPT-4o这样的应用,以及即将出现的多模态和Gemini,还有Anthropic以及所有CSP(云服务提供商)正在进行的工作,这些都在消耗每一个现有的GPU。还有一长串生成式AI初创公司,大约有15000到20000家,涉及从多媒体到数字角色、各种设计工具应用、生产力应用、数字生物学,自动驾驶汽车行业转向视频领域,以便它们可以训练端到端模型,扩大自动驾驶汽车的操作领域。这个名单真的是非常庞大。实际上,我们正在快速前进,客户也对我们施加了很大的压力,希望我们尽快交付系统并将其投入使用。当然,我还没有提到所有希望训练其国家区域模型的主权AI,它们希望使用国家的自然资源数据来训练区域模型,因此也有很大的压力来建立这些系统。所以,不管怎样,我认为需求确实非常高,超过了我们的供应。长远来看,这就是为什么我要发表一些评论的原因。从长远来看,我们正在彻底重新设计计算机的工作方式。这是一个平台的转变。当然,这被与过去的其他平台转变相比较,但时间会清楚地告诉大家,这比以往的任何平台转变都要深刻得多。原因是计算机不再仅仅是一个指令驱动的计算机,而是一个理解意图的计算机。它不仅理解我们与它的交互方式,还理解我们的意图,知道我们让它做什么,并且有能力通过推理和迭代处理来制定计划并给出解决方案。因此,计算机的每个方面都在发生变化,从预先录制的文件检索到现在生成上下文相关的智能答案。这将改变全球的计算堆栈。你已经看到,甚至PC计算堆栈也将被革命化。而这仅仅是我们实验室中所有正在进行的工作以及我们与全球初创公司和大公司的开发人员合作的开始。这将是非常非凡的。

(4)Operator

接下来是来自高盛的ToshiyaHari,请提问

ToshiyaHari

你好,非常感谢回答我的问题。Jensen,我想问一下关于竞争的问题。我认为你们的许多云客户已经宣布了新的或更新了他们现有的内部计划,这与他们与你们合作的工作是并行的。在中长期来看,你们在多大程度上将他们视为竞争对手?在你看来,他们的解决方案是否仅限于处理内部工作负载,还是可能在未来处理更广泛的问题?谢谢

JensenHuang

我们在几个方面有所不同。首先,NVIDIA的加速计算架构允许客户处理其工作管道的各个方面,从非结构化数据处理到为训练做准备,再到结构化数据处理、数据框架处理(如SQL)以进行训练,然后进行推理。如我在讲话中提到的,推理已经发生了根本性的变化,现在是生成过程。它不仅仅是尝试检测猫(这本身已经很难了),而是必须生成猫的每一个像素。因此,生成过程是一种根本不同的处理架构,这也是TensorRTLLM如此受欢迎的原因之一。我们在相同的架构上使用相同的芯片,性能提高了三倍,这说明了我们架构和软件的丰富性。因此,你可以使用NVIDIA处理所有事情,从计算机视觉到图像处理,从计算机图形到所有计算模式。

现在,由于通用计算已经达到极限,世界正面临计算成本和计算能源的膨胀,加速计算是真正可持续的前进方式。加速计算是你在计算中省钱的方法,也是你在计算中节能的方法。因此,我们平台的多功能性使得他们的数据中心具有最低的总拥有成本(TCO)。

其次,我们在每个云平台上都有存在。因此,对于那些寻找开发平台的开发者来说,从NVIDIA开始总是一个很好的选择。我们在本地,我们在云端。我们在各种尺寸和形状的计算机中。我们几乎无处不在。

第三个原因是我们建立了AI工厂。这让人们越来越明显地认识到,AI不仅仅是一个芯片问题。它当然始于非常好的芯片,我们为我们的AI工厂制造了一大堆芯片,但这也是一个系统问题。事实上,AI现在是一个系统问题。这不仅仅是一个大型语言模型,而是许多大型语言模型一起工作的复杂系统。因此,NVIDIA构建这个系统的事实使我们能够优化所有的芯片协同工作,能够拥有作为系统运行的软件,并能够优化整个系统。

为了用简单的数字来说明,如果你有一个50亿美元的基础设施,并将性能提高一倍(这是我们经常做的),当你将基础设施性能提高一倍时,它的价值也是50亿美元。数据中心的所有芯片都无法支付这笔费用,因此它的价值确实非常非凡。这就是为什么今天性能至关重要的原因。在这个时候,最高性能也是最低成本,因为维持这些芯片的基础设施成本非常高。需要大量资金来资助数据中心,运营数据中心,管理它的人员,电力,房地产等等所有费用。因此,最高性能也是最低总拥有成本(TCO)。

(5)Operator

接下来是TDCowen的MattRamsay,请提问

MatthewRamsay

非常感谢。下午好,大家好。Jensen,我的整个职业生涯都在数据中心行业中度过。我从未见过你们以这样的速度推出新平台,并且性能提升如此显著,训练性能提升了5倍,有些你在GTC上提到的推理性能提升高达30倍。这是一个令人惊叹的事情,但也创造了一个有趣的对比,你们客户正在花费数十亿美元购买当前一代产品,而这些产品的竞争力将会在你的新产品面前迅速下降,比产品的折旧周期快得多。所以我想请你谈谈你是如何看待这个情况的,尤其是对于客户来说,他们如何应对这种情况。随着你们向Blackwell过渡,你们将会有非常大的安装基数,当然软件是兼容的,但安装基数中的产品性能远不及新一代产品。你看到客户在这条道路上会发生什么变化?谢谢.

JensenHuang

是的,我非常感谢你的提问。我要强调三点。首先,如果你刚刚建设完成5%的基础设施和已经完成95%的基础设施,你的感受会非常不同。如果你仅完成了5%,你会尽可能快地建设。当Blackwell到来时,它将非常出色。之后,我们还会有其他的Blackwell产品到来。我们已经向世界解释了,我们是一年一个节奏。我们希望客户能够看到我们的路线图,不论他们喜欢看到多远,但他们目前建设还处于早期阶段,因此他们必须继续建设。所以会有一大批芯片到来,他们必须继续建设,逐步提升性能。这是明智的做法。他们今天需要赚钱,他们今天想省钱,时间对他们来说非常宝贵。

让我举个例子说明时间的重要性,为什么立即建立数据中心和加快训练时间如此宝贵。原因是下一个达到重要里程碑的公司将能够宣布一项突破性的AI,而第二个公司只能宣布一个0.3%的改进。所以问题是,你想成为不断交付突破性AI的公司,还是那个交付0.3%改进的公司?这就是为什么在所有技术竞赛中,竞争如此重要的原因。你看到多个公司在竞争,因为技术领先对于公司信任和构建在你的平台上是至关重要的,并且他们知道他们正在构建的平台会越来越好。因此,领导力非常重要,训练时间也非常重要。训练时间早三个月完成对于一个三个月的项目启动时间来说至关重要。这也是我们现在疯狂建立Hopper系统的原因,因为下一个里程碑就在眼前。

第一个你提到的问题非常好,就是我们如何以如此快的速度前进并快速提升他们?因为我们拥有所有的技术栈。我们实际上构建了整个数据中心,并可以监控一切,测量一切,优化一切。我们知道所有的瓶颈在哪里,我们不是在猜测,也不是在做漂亮的PowerPoint幻灯片。我们实际上在交付大规模运行的系统。我们知道它们在大规模上运行良好,因为我们在这里构建了一切。我们所做的一个奇迹是,我们在这里构建了整个AI基础设施,然后将其分解并集成到客户的数据中心,按照他们的需要进行调整。我们知道它将如何运行,知道瓶颈在哪里,需要与他们一起优化,并知道需要帮助他们改进基础设施以实现最高性能。这种对整个数据中心规模的深入了解是我们今天与众不同的根本原因。我们从头开始构建每一个芯片,精确了解整个系统的处理过程,因此我们确切地知道它将如何运行,以及如何在每一代中发挥其最大潜力。所以,我很感激。这是我要强调的三点。

.

(6)Operator

接下来是EvercoreISI的MarkLipacis,请提问

MarkLipacis

你好。感谢你们回答我的问题。Jensen,以前你曾观察到通用计算生态系统通常主导了每个计算时代。我相信你的论点是,它们可以适应不同的工作负载,获得更高的利用率,降低计算周期的成本。这也是你推动通用GPUCUDA生态系统用于加速计算的动机。如果我错误地描述了这一观察,请告诉我。问题是,鉴于驱动你们解决方案需求的工作负载主要是神经网络训练和推理,这些看起来像是有限数量的工作负载,似乎更适合定制解决方案。那么问题是,通用计算框架是否变得更有风险?或者这些工作负载的变化是否足够大或发展足够快,以支持历史上的通用计算框架?谢谢

JensenHuang

是的,NVIDIA的加速计算是多功能的,但我不会称其为通用计算。例如,我们不擅长运行电子表格,那是为通用计算设计的。操作系统代码的控制循环可能不适合通用计算,也不适合加速计算。所以我会说我们是多功能的,这是我通常的描述方式。多年来,我们能够加速的应用领域非常丰富,但它们都有很多共同点,可能有一些深层次的差异,但也有共同点。它们都是可以并行运行的,都是高度线程化的。例如,5%的代码代表了99%的运行时间。这些都是加速计算的特性。

我们平台的多功能性以及我们设计整个系统的事实,是过去十年来你们在这些电话会议中问我大量初创公司的原因。每一个初创公司,由于其架构的脆弱性,当生成式AI出现时,当融合模型出现时,当下一个模型出现时,它们都突然需要记忆,因为大型语言模型需要记忆才能与你进行对话,理解上下文。突然之间,Grace内存的多功能性变得非常重要。因此,每一次生成式AI的进步和AI的进步,确实需要一种不仅仅是为某个模型设计的小工具,而是为整个领域的属性设计的,但遵循软件的第一原则,即软件将继续发展,软件将继续变得更好更大。

我们相信这些模型的扩展。在未来几年,我们有很多理由能够轻松地扩展一百万倍,我们对此充满期待,并且我们已经准备好了。因此,我们平台的多功能性确实非常关键。如果你过于脆弱和过于具体,你不如构建一个FPGA或ASIC之类的东西,但那几乎不能称之为计算机

(7)Operator

接下来是Jefferies的BlayneCurtis,请提问.

BlayneCurtis

感谢你们回答我的问题。我有点好奇,在供应受限的情况下,你们是如何考虑的?我指的是你们为中国推出了H20产品。我假设这会有大量需求,但显然你们也在尝试用其他Hopper产品来满足客户的需求。我很好奇你们在下半年是如何考虑这个问题的。你能详细说明对销售以及毛利率的影响吗?

JensenHuang

我没有听清你的问题,刚才有些声音干扰.

SimonaJankowski

关于H20产品,你们是如何在不同的Hopper产品之间分配供应的.

JensenHuang

我们对H20和其他Hopper产品的供应分配确实进行了仔细的考虑。我们知道H20在中国市场有很大的需求,同时我们也需要满足其他市场对Hopper产品的需求。为了平衡这些需求,我们会根据市场需求的紧迫性和战略重要性进行供应分配。我们的目标是确保所有市场都能获得他们需要的产品,同时尽量优化我们的供应链和生产能力,以最大化整体销售和毛利率。这样,我们既能满足中国市场对H20的需求,又能确保其他Hopper产品在全球市场的供应。

(8)Operator

接下来是RaymondJames的SriniPajjuri,请提问

SriniPajjuri

谢谢。Jensen

,实际上我想澄清一下你刚才提到的内容。看起来GB200系统有很大的需求。历史上,我认为你们卖了很多HGX板卡和一些GPU,而系统业务相对较小。所以我很好奇,为什么现在你们看到系统的需求如此强劲?这是因为总拥有成本(TCO)还是其他原因,或者仅仅是因为架构?谢谢

JensenHuang

是的,我很感激这个问题。事实上,我们销售GB200的方式没有改变。我们将所有合理的组件分离出来,并将其整合到计算机制造商中。今年我们有100种不同的计算机系统配置将推出Blackwell。这是一个巨大的数量。坦率地说,Hopper在其巅峰时期只有一半,甚至开始时还远不及此。因此,你会看到液冷版本、风冷版本、x86版本、Grace版本等等。我们设计了许多系统,并由我们所有优秀的生态伙伴提供。没有什么真正改变。

当然,Blackwell平台大大扩展了我们的产品。CPU的集成和更高密度的计算、液冷将为数据中心在电力供应上节省大量资金,更不用说提高能源效率了。因此,这是一个更好的解决方案,更加广泛的解决方案,意味着我们提供了更多的数据中心组件,大家都能受益。数据中心获得了更高的性能,从网络交换机、网络到NIC(网络接口卡),我们现在还有以太网,因此我们可以将NVIDIAAI带给只知道如何操作以太网的客户,因为这是他们的生态系统的一部分。所以,Blackwell的扩展性更强,这一代我们为客户提供了更多选择

(9)Operator

接下来是TruistSecurities的WilliamStein,请提问.

WilliamStein

太好了。谢谢你们回答我的问题。Jensen,NVIDIA在某个时候决定,尽管有一些相当不错的数据中心CPU可用,你们的基于ARM的GraceCPU提供了一些实际优势,使这项技术值得向客户提供,这可能与成本或功耗或Grace与Hopper、Grace与Blackwell之间的技术协同有关。你能否谈谈是否可能在客户端也出现类似的动态,尽管有非常好的解决方案,你强调了Intel和AMD是非常好的合作伙伴,并且在x86方面提供了出色的产品,但在一些新兴的AI工作负载中,NVIDIA是否能提供一些其他厂商更难实现的优势?

JensenHuang

你提到了一些非常好的理由。确实,对于许多应用程序来说,我们与x86合作伙伴的合作非常出色,我们一起构建了优秀的系统。但Grace允许我们做一些当前系统配置无法实现的事情。Grace和Hopper之间的内存系统是一致和互联的。两块芯片之间的互连,称其为两块芯片有点奇怪,因为它们像一个超级芯片。它们通过每秒一个TB的接口连接在一起,这简直是超乎想象。而Grace使用的内存是LPDDR,这是首个数据中心级的低功耗内存,因此我们在每个节点上节省了大量功耗。最后,由于架构的原因,因为我们现在可以用整个系统创建我们自己的架构,我们可以创建一个拥有非常大的NVLink域的系统,这对于下一代大语言模型推理至关重要。因此,你看到GB200有一个72节点的NVLink域,就像72个Blackwell连接成一个巨大的GPU。因此,我们需要GraceBlackwell来实现这一点。

因此,有架构上的原因、软件编程上的原因,还有系统上的原因使得我们必须这样构建它们。如果我们看到这样的机会,我们会探索它。昨天你们看到的发布会,Satya宣布了下一代PC,Copilot+PC,它在搭载NVIDIARTXGPU的笔记本电脑上运行非常出色。但它也很好地支持ARM,因此即使对于PC来说,这也为系统创新打开了机会

.

(10)Operator

最后一个问题来自CantorFitzgerald的C.J.Muse,请提问.

C.J.Muse

下午好。感谢你们回答我的问题。Jensen,这是一个长期的问题。我知道Blackwell还没有正式发布,但显然,投资者是前瞻性的。在GPU和定制ASIC竞争日益激烈的情况下,你如何看待NVIDIA的创新步伐以及你们在过去十年中的百万倍扩展,这确实令人印象深刻。CUDA、Varsity、Precision、Grace、Cohere和Connectivity。展望未来,未来十年需要解决哪些摩擦问题?我想,也许更重要的是,你今天愿意与我们分享什么?

JensenHuang

嗯,我可以宣布,在Blackwell之后,还有另一款芯片。我们处于每年一个节奏的节奏上。而且你可以指望我们在非常快的节奏上推出新的网络技术。我们正在为以太网宣布Spectrum-X。但我们全力支持以太网,并且有一个非常令人兴奋的以太网路线图。我们有丰富的合作伙伴生态系统。戴尔宣布他们将推出Spectrum-X。我们有丰富的客户和合作伙伴生态系统,他们将宣布推出我们的整个AI工厂架构。因此,对于那些想要终极性能的公司,我们有InfiniBand计算结构。InfiniBand是一个计算结构,以太网是一个网络。多年来,InfiniBand从一个计算结构开始,逐渐成为一个越来越好的网络。以太网是一个网络,通过Spectrum-X,我们将使其成为一个更好的计算结构。我们全力支持所有三个链路,单一计算域的NVLink计算结构、InfiniBand计算结构和以太网网络计算结构。我们将以非常快的速度推进所有三个方向。因此,你将看到新的交换机、新的NIC(网络接口卡)、新的功能、在所有三个链路上运行的新软件栈、新的CPU、新的GPU、新的网络NIC、新的交换机、大量即将推出的芯片。

所有这些美妙之处在于,所有这些都运行CUDA,并且所有这些都运行我们的整个软件栈。所以你今天在我们的软件栈上投资,无需任何操作,它将变得越来越快。你今天在我们的架构上投资,无需任何操作,它将进入越来越多的云和越来越多的数据中心,并且一切都能运行。因此,我认为我们带来的创新速度将一方面提高能力,另一方面降低总拥有成本(TCO)。因此,我们应该能够以NVIDIA架构扩展这种新的计算时代,并启动这场新的工业革命,不仅仅是制造软件,而是大规模制造人工智能令牌。谢谢。

Operator

我们的问答环节和今天的电话会议结束。感谢大家的参与

最新纪要研报请微信扫码关注“君实财经”

每天精选消费、医药、互联网、新能源等最新调研纪要和报告,缩小你与一线产业的信息差!

注意:以上内容来源于网络,友情分享,仅是基于行业以及公司基本面的静态分析,非动态买卖指导。股市有风险,入市需谨慎,请勿跟风买卖!如造成不便,请联系后台删除

Related Posts