总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数
GPU Utils最近总结了一个关于英伟达H100显卡在AI训练中的应用文章。里面透露总结了一些当前的主流厂商拥有的显卡数量以及一些模型训练所需的显卡数。文章主要描述的是H1000的供应与需求,也包含H100的性能描述,本文主要总结一下里面提到的显卡数相关统计供大家参考。
H100简介以及常见的H100、GH200s、DGC GH200s、HGX H100s的区别
GPT-4/Falcon等模型训练用到的GPU数量
OpenAI、特斯拉等厂商拥有的GPU数量
H100简介以及常见的H100、GH200s、DGC GH200s、HGX H100s的区别
首先还是简单介绍一下这里涉及到的显卡基本知识。H100是目前全球性能最高的专业级显卡,特别适合用来训练大语言模型这种超大规模参数的大模型。速度很快。在16-bit训练上,比A100快2.3倍,在16-bit的推理上比A100快3.5倍。
当然,与H100经常一起出现的还有H100s, GH200s, DGX GH200s, HGX H100s, 和 DGX H100s这些名称,其基本区别如下:
H100 = 一个H100 GPU
HGX H100 = Nvidia 的服务器参考平台,OEM厂商可用其构建一个包含4块GPU或8块GPU服务器。由像Supermicro这样的第三方OEM厂商制造。
DGX H100 = Nvidia官方的H100服务器,配备8个H100 GPU。Nvidia是唯一的供应商。
GH200 = 1x H100 GPU加上1x Grace CPU。
DGX GH200 = 256个GH200,预计于2023年末推出。很可能仅由Nvidia提供。
也就是说,H100只是一个显卡,但是尝试可以创建服务器,包含4个或者8个H100一起互联,用以提供给大模型训练等。这里还有一个注意的Grace CPU,这是英伟达自己基于ARM开发的服务端CPU。
这里带有GH的表示配备了英伟达Grace CPU的服务器,DGX则表示是英伟达自己供应的带有GPU的服务器。
GPT-4/Falcon等模型训练用到的GPU数量
这篇博客中还介绍了一些模型训练使用的GPU数量,当然这些数据原文都有参考文献和出处,我们就不列举了。
GPT-4:可能由1万到2.5万块A100训练
Falcon-40B:384个A100训练
Inflection用了3500个H100训练了一个等价于GPT-3.5的大模型
LLaMA-1:2048个A100
GPT-5:可能需要3万到5万个H100(存疑)
OpenAI、特斯拉等厂商拥有的GPU数量
Meta由2.1万块A100
Tesla由7000块A100
StabilityAI有5000块A100
GPC有2.5万块H100
Azure有1-4万块H100
CoreWeavw有3.5-4万块H100
OpenAI可能有5万块H100
Infection希望有2.2万块H100
Meta已经有2.5万块H100,但是希望再买1万块
来源:数据学习 作者:小木
A100\H100在中国大陆基本上越来越少,A800目前也在位H800让路,如果确实需要A100\A800\H100\H800GPU,建议就不用挑剔了,HGX 和 PCIE 版对大部分使用者来说区别不是很大,有货就可以下手了。
无论如何,选择正规品牌厂商合作,在目前供需失衡不正常的市场情况下,市面大部分商家是无法供应的,甚至提供不属实的信息,如果是科研服务器的话首选风虎云龙科研服务器,入围政采,品质和售后服务都有保障。
欢迎交流 陈经理【173-1639-1579】
多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、RTX6000 Ada,单台双路192核心服务器有售,
多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、RTX6000 Ada,单台双路192核心服务器有售。

