分析师估算NVIDIA Blackwell服务器机柜的单价约为200至300万美元

站长云网 2024-07-28 5iter.com 站长云网

从分析师估计到首席执行官黄仁勋(JensenHuang)的评论,NVIDIA的Blackwell平台的定价已经浮出水面。简而言之,要部署这些性能强大的产品,买家将付出高昂的代价。摩根士丹利(MorganStanley)预计,2025年NVIDIA将出货6万至7万个B200服务器机柜,年收入至少为2100亿美元。尽管成本高昂,但市场对这些功能强大的AI服务器的需求依然旺盛。


据报道,NVIDIA已投资约100亿美元开发Blackwell平台,约有25000人参与其中。单个BlackwellGPU就能实现如此强大的性能,因此这些产品能获得可观的溢价也就不足为奇了。

据汇丰银行分析师称,NVIDIA的GB200NVL36服务器机架系统将耗资180万美元,NVL72将耗资300万美元。功能更强大的GB200超级芯片结合了CPU和GPU,预计每个芯片的价格为6万至7万美元。这些超级芯片包括两个GB100GPU和一个GraceHopper芯片,以及一个大型系统内存池(HBM3E)。

今年早些时候,首席执行官黄仁勋告诉CNBC,一个BlackwellGPU的成本为3万至4万美元,摩根士丹利根据这一信息计算出了买家的总成本。每个AI服务器机柜的售价约为200万至300万美元,NVIDIA计划出货6万至7万个B200服务器机柜,预计年收入至少为2100亿美元。

但是,客户的花费是否会在某个时候证明这一点呢?红杉资本(SequoiaCapital)分析师戴维-卡恩(DavidCahn)估计,每年支付其投资所需的人工智能收入已攀升至6000亿美元......

但现在,毫无疑问,科技公司将付出代价,无论代价有多惨痛也要硬着头皮上。拥有2080亿个晶体管的B200可以提供高达20petaflops的FP4计算能力。要训练一个1.8万亿个参数的模型,需要8000个HopperGPU,耗电15兆瓦。

这样的任务需要2000个BlackwellGPU,而功耗仅为4兆瓦。在大型语言模型推理工作负载方面,GB200超级芯片的性能是H100GPU的30倍,并显著降低了功耗。

据摩根士丹利(MorganStanley)称,由于需求旺盛,NVIDIA正在将其与台积电的订单量增加约25%。毫不夸张地说,专为机器人、自动驾驶汽车、工程模拟和医疗保健产品等一系列下一代应用而设计的Blackwell将成为人工智能训练和许多推理工作负载的事实标准。

责任编辑:站长云网