国内对英伟达H800需求究竟大不大?

英伟达

1个回答

写回答

陶陶超可爱

2026-02-18 09:12

+ 关注

AI
AI

关键是当下怎样获取H800。至于为何出现当前局面,下面从几个角度来分析。大模型训练的发展情况。在AI领域,GPU主要用于AI训练和推理这两个场景。近期热门的LLM(大型语言模型),H100在推理和训练速度上是最快的,其推理性价比通常也是最高的。因美国政府对华出口管制趋紧,国内对A100/H100的需求只能转向阉割版的A800/H800(PCIe版本性能无差别,SXM带宽有削减)。由于国内高性能GPU暂时无法替代,A800/H800受到中国互联网巨头的喜爱。全球芯片巨擘纷纷囤积GPU。有报道称,百度腾讯阿里巴巴和字节跳动今年给英伟达的交付订单金额达10亿美元,约采购10万张H800芯片,可见这些大佬对GPU的采购极为急切。国外大客户对英伟达A100/H100芯片的需求也很强烈。那需求量究竟是多少?下面对此进行了大致估算。

图中内容显示,GPT - 4可能是在10000 - 25000张A100上训练的;Meta大概需要21000张A100;Tesla约需7000张A100;Stability AI大约要5000张A100;Falcon - 40B是在384张A100上训练的;Inflection使用3500张H100来训练与GPT - 3.5能力相当的模型。此外,马斯克称GPT - 5可能需要30000 - 50000张H100。面对如此庞大的需求,英伟达的GPU严重短缺。国外大客户在拼命寻找A100/H100,国内科技公司也在疯狂找寻A800/H800。价格不断上涨,交货期被延长。供应链消息表明,生成式人工智能需求旺盛、国际形势发生变化等因素,使专供中国市场的A800和H800价格不断上涨,GPU的采购在市场上变得极为急迫。此外,NVIDIA称会优先保障H800产能,这使得H800的需求迅猛增长。H800较A800在性能上有明显提升。

深圳昊源诺信基于NVIDIA H800 GPU算力平台,提供多款H800服务器供大家选择,这些服务器在大模型训练、自动驾驶、深度学习等方面性能十分强悍。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号