欢迎光临散文网 会员登陆 & 注册

总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数

2023-08-29 16:01 作者:小元宇宙  | 我要投稿

GPU Utils最近总结了一个关于英伟达H100显卡在AI训练中的应用文章。里面透露总结了一些当前的主流厂商拥有的显卡数量以及一些模型训练所需的显卡数。文章主要描述的是H1000的供应与需求,也包含H100的性能描述,本文主要总结一下里面提到的显卡数相关统计供大家参考。



  • H100简介以及常见的H100、GH200s、DGC GH200s、HGX H100s的区别

  • GPT-4/Falcon等模型训练用到的GPU数量

  • OpenAI、特斯拉等厂商拥有的GPU数量


H100简介以及常见的H100、GH200s、DGC GH200s、HGX H100s的区别

首先还是简单介绍一下这里涉及到的显卡基本知识。H100是目前全球性能最高的专业级显卡,特别适合用来训练大语言模型这种超大规模参数的大模型。速度很快。在16-bit训练上,比A100快2.3倍,在16-bit的推理上比A100快3.5倍。


当然,与H100经常一起出现的还有H100s, GH200s, DGX GH200s, HGX H100s, 和 DGX H100s这些名称,其基本区别如下:

  • H100 = 一个H100 GPU

  • HGX H100 = Nvidia 的服务器参考平台,OEM厂商可用其构建一个包含4块GPU或8块GPU服务器。由像Supermicro这样的第三方OEM厂商制造。

  • DGX H100 = Nvidia官方的H100服务器,配备8个H100 GPU。Nvidia是唯一的供应商。

  • GH200 = 1x H100 GPU加上1x Grace CPU。

  • DGX GH200 = 256个GH200,预计于2023年末推出。很可能仅由Nvidia提供。

也就是说,H100只是一个显卡,但是尝试可以创建服务器,包含4个或者8个H100一起互联,用以提供给大模型训练等。这里还有一个注意的Grace CPU,这是英伟达自己基于ARM开发的服务端CPU。

这里带有GH的表示配备了英伟达Grace CPU的服务器,DGX则表示是英伟达自己供应的带有GPU的服务器。

GPT-4/Falcon等模型训练用到的GPU数量

这篇博客中还介绍了一些模型训练使用的GPU数量,当然这些数据原文都有参考文献和出处,我们就不列举了。

  • GPT-4:可能由1万到2.5万块A100训练

  • Falcon-40B:384个A100训练

  • Inflection用了3500个H100训练了一个等价于GPT-3.5的大模型

  • LLaMA-1:2048个A100

  • GPT-5:可能需要3万到5万个H100(存疑)

OpenAI、特斯拉等厂商拥有的GPU数量

  • Meta由2.1万块A100

  • Tesla由7000块A100

  • StabilityAI有5000块A100

  • GPC有2.5万块H100

  • Azure有1-4万块H100

  • CoreWeavw有3.5-4万块H100

  • OpenAI可能有5万块H100

  • Infection希望有2.2万块H100

  • Meta已经有2.5万块H100,但是希望再买1万块

来源:数据学习 作者:小木

A100\H100在中国大陆基本上越来越少,A800目前也在位H800让路,如果确实需要A100\A800\H100\H800GPU,建议就不用挑剔了,HGX 和 PCIE 版对大部分使用者来说区别不是很大,有货就可以下手了。

无论如何,选择正规品牌厂商合作,在目前供需失衡不正常的市场情况下,市面大部分商家是无法供应的,甚至提供不属实的信息,如果是科研服务器的话首选风虎云龙科研服务器,入围政采,品质和售后服务都有保障。

欢迎交流 陈经理【173-1639-1579】

多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、RTX6000 Ada,单台双路192核心服务器有售,

多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、RTX6000 Ada单台双路192核心服务器有售。



总结一下截止2023年中旬全球主要厂商拥有的GPU数量以及训练GPT-3/LLaMA2所需要的GPU数的评论 (共 条)

分享到微博请遵守国家法律