互联网大厂专家算力供求交流:H20芯片的单价是多少?910c芯片集群能力?

本文首发于“君实财经”微信公众号,发布时间:2023-11-22

最新纪要研报请微信扫码关注“君实财经”

每天精选消费、医药、互联网、新能源等最新调研纪要和报告,缩小你与一线产业的信息差!

Q&A

Q1:H20芯片的单价是多少?

A1:H20芯片的价格应与H800在80%以上,因显存成本高,价格不会比H800便宜太多

Q2:H20的卡量是H800的四五倍,价格是80%,那么单匹的算力的成本是否是原来的三倍?下游对这种卡的接受情况如何?

A2:H20芯片的性价比较低,目前暂缓使用。只有在极度缺卡的情况下才会考虑。成本会比H800贵4~5倍。

Q3:如果无法购买卡片,应该如何解决?

A3:大厂会考虑使用现有卡进行训练,或者看看国内的华为升腾能否实破瓶颈

Q4:对于即将推出的910c芯片,你们怎么看?它的集群能力何时能提开?

A4:910C芯片的算力预计会翻倍,达到干亿以上,接近H100的水平。华为正在改善910C在云通讯上的性能,预计明年能实现大规模稳定训练.

Q5:910c的集群能力提升需要多少时间?有什么方式可以判断它的实际进展?

A5:华为正在优化卡与卡以及机器与机器之间的通信量、通过与科大讯飞和美图等公司的反馈,可以判断出华为的实际进展Q6:切换到华为的成本是多少?需要多长时间才能看到生态的显著改善?

A6:切换到华为的成本在于需要进行定制化优化,而华为的公开生态尚不成熟,不太适合用来做显卡的大模型训练。

Q7:目前国内的卡片供给情况如何?大厂们有多少算力?

A7:字节跳动和腾讯是国内购买卡最多的两家公司,数量都在几万张以上。阿里巴巴的数量稍微少一些,也有上万张。字节跳动和腾讯是第一梯队,阿里巴巴是第二梯队,商汤科技紧随其后。百度与阿里巴巴的购卡数量相当,其余厂商的购卡规模都不会达到两三万张

Q8:商汤科技当前拥有多少张Al卡?

A8:商汤科技在前年年底到去年年中的采购高峰期购入了大量AI卡,但具体数量未公布

Q9:商汤科技的AI卡供应情况如何?下单与交付的时间是多久?

A9:商汤科技的A卡供应紧张,供需比约为1:10。他们今年的产量可能达到20万张,但由于华为自用需求,实际对外销售量有限。交付时间从四个月起.

Q10:华为最主要的供应商是科大讯飞、美图和美团吗?商汤科技准备了一些卡供他们试用吗?

A10:华为的主要供应商确实包括科大讯飞、美图和美团。由于AI卡供应紧张,商汤科技会优先为这些广商提供小批量的卡进行测试.

Q11:各大厂商的Al模型目前处于哪个阶段?谁将率先进入4.0阶段?

A11:大部分厂商的Al模型目前处于3.5阶段,他们都在努力向4.0阶段迈进。我预测百度、商汤或上海APP的系可能率先进入4.0阶段.

Q12:GBOpen明年计划推出GP5,这对AI算力需求会有怎样的影响?

A12:如果GBOpen如期推出GP5,并且加入视觉功能,其算力需求可能至少达到十万匹,甚至接近二十万匹。Q13:我们的人事变动对Al行业的影响是什么?

A13:虽然我们的人事变动会对A行业产生影响,但影响不大。因为在大的历史趋势面前,领导层影响有限,真正能左右项目的是核心研究员。

Q14:阿里巴巴是否已经停止所有AI百项任务?

A14:阿里巴巴已经停止了所有Al百项任务,他们可能会把算力用于推动GDP4的发展。

Q15:商汤云即将进行公测,这将对Al市场产生怎样的影响?

A15:商汤云的公测将对AL市场产生重大影响。用户将能够像使用阿里云一样,注册账号并付费后即可使用。商汤科技计划将大装置铺开,并发展相关业务。

Q16:一些国内领导担心,供给端有限,下放微信的需求会增大,可能会导致供不应求,对于单批专利的成本的忍耐程度的上限,可能会在什么程度?

A16:目前的算力成本已经接近上限,但还有些许涨价的空间,如果涨到2-4倍,可能大家都租不起。如果美国想锁生我们的科技,可能会以代码不开源,pae不发表,算力不共字这二个方面来做。如果华为生成或者国内芯片问题不解决,GDP4可能就是我们的终点。

A17:大客户可能能概是目前成本的两倍,即36万或者40万以内。

Q18:商汤科技现在租出去的算力有哪些需求的客户?他们的模型推进情况和下游应用的进展如何?A18:我们的客户主要分为三类,一类是上海Lae,需求量在几千张;第二类是中型广商,如米游等,基于我们的集群做一些游戏大模型第三类是创业公司和高校,租用量相对较小

Q19:从最开始到现在,显卡的价格上涨了多少?这个趋势会持续吗?

A19:从年初到现在,显卡价格翻倍,行业也翻倍。由于供给端将急剧收缩,需求端将大涨,我们预计价格还会继续上涨,可能在今年年底到明年上半年还有30%的涨幅.

Q20:现在能买到40903090、14140这些显卡吗?

A20:现在基本上买不到40903090、14140这些显卡。由于它们的稳定性问题,不适用于大规模集群训练。

Q21:大模型推理通常用什么类型的显卡?比如,GPT4这种大模型的推理,用140s可以支持吗?42:GDP4这种级别的模型只能用h100海外大厂明购买了几十万张的100,其中很多应该是用来准理的,欧派准出的PT4也都是用HD百来做地准的,他们目前用于推理的加100的卡可能接近10万张。

Q22:他们必须要用h100是因为卡间的互联还是单卡的算力?

A22需要用M100的原因有两,一是10的算力是百的56倍:二是大型要不同卡之间进拆分,每卡只存在于型的-部分,需要进行卡与联,这使得110左推速度上可批列快10倍左右。

Q23:当前对于分布式计算的推理环节需求是否仍然强烈?

A23:对于大型模型,分布式计算的需求依然虽烈。但对于7b的模型,许多显卡都能支持。考虑到性价比,4090显卡的性价比最高.

Q24:为了推广推理应用,是否需要通过蒸儡出较小的模型来运行某些特定场景的应用?

A24:当前,模型已经在进蒸偏,对于某些特定领域,如医疗领,使用或13的模型可能就足够小模型有其存在的价值,但无法5130的大型进行以。广泛应用的模型,如口拍和文生视频模型,需要较大的参数量级。而在WPS等特定场景下,可能会使用压缩模型。

Q25:由于使用大型模型的成本较高,为了降低付费门档,是否需要在某些场景下使用小型模型?

A25:如果能对场景进行拆分,就可以使用小模型,各厂商都在努力实现这一目标。但对于一些无法压缩的广泛场景,只能使用大型模型进行推理。

Q26:大型模型的训练对显卡资源的需求是持续的吗?训练多长时间可以释放资源?

A26:训练大型模型需要占用显卡资源的时间取决于训练的时间长度。训练一个1000亿级别的模型需要长时间占用显卡资源,通常需要至少一个月。大模型需要送代,每一个半月会更新一次版本,显卡基本上没有停止过

Q27:OpenAl拥有多少显卡进行训练?推理环节的资源分配是怎样的?

A27:OpenA拥有的显数量在几十万级别,微软今年已投入60亿美元购买显卡,推理和训练的资分配基本上是对半分,但由于他们最近要训练GDP5,训练端的资源占用可能会增加.

Q28:新的闻版的h20显卡互联网大厂会6平22国内有哪些算力租赁公司有特殊能力,比如能获得显卡?

A28:如果从性价比角度考虑,h20显卡可能比a100贵3-4倍,因此国内可前对20卡需求不大,能获取显卡的优势公司主要是大型与联网公司

最新纪要研报请微信扫码关注“君实财经”

每天精选消费、医药、互联网、新能源等最新调研纪要和报告,缩小你与一线产业的信息差!

注意:以上内容来源于网络,友情分享,仅是基于行业以及公司基本面的静态分析,非动态买卖指导。股市有风险,入市需谨慎,请勿跟风买卖!如造成不便,请联系后台删除

Related Posts