H100 超微NV服务器 英伟达 NVIDIA 提供前所未有的加速,为世界各地的计算机提供动力
NVIDIA®H100张量核心GPU提供前所未有的加速,为世界各地的计算机提供动力
用于人工智能、数据分析和高性能的最高性能弹性数据中心
计算(HPC)应用。NVIDIA H100张量核心技术支持广泛的
数学精度,为每个计算工作负载提供单个加速器。NVIDIA H100
PCIe支持双精度(FP64)、单精度(FP32)、半精度(FP16)和
整数(INT8)计算任务。
面向主流服务器的NVIDIA H100 Tensor Core图形处理单元(gpu)问世
NVIDIA AI企业版5年软件订阅,包括企业支持,
以最高的性能简化人工智能的采用。这确保了组织可以访问
到构建H100加速人工智能工作流所需的人工智能框架和工具,例如
会话AI、推荐引擎、视觉AI等等。
NVIDIA H100卡是一款基于NVIDIA标准的双槽10.5英寸PCI Express Gen5卡
料斗™架构。它使用被动散热片进行冷却,这需要系统气流
在卡的热限制范围内正确操作卡。NVIDIA H100 PCIe运行
不受约束地达到350w的最大热设计功率(TDP)水平来加速
需要最快的计算速度和最高的数据吞吐量的应用程序。的
NVIDIA H100 PCIe首次推出全球最高的PCIe卡内存带宽(超过2000)
gb / s (GBps)。这加快了解决方案的时间为最大的模型和大多数
海量数据集。
NVIDIA H100 PCIe卡具有多实例GPU (Multi-Instance GPU)功能。这可以用来
将GPU划分为多达七个硬件隔离的GPU实例,提供统一的
使弹性数据中心能够动态调整以适应不断变化的工作负载需求的平台。
此外,还可以分配适当大小的资源,从最小到最大的多gpu
就业机会。NVIDIA H100的多功能性意味着IT经理可以最大限度地发挥每个GPU的效用
他们的数据中心。
NVIDIA H100 PCIe卡使用三个NVIDIA®NVLink®桥。它们和桥一样
使用NVIDIA A100 PCIe卡。这允许连接两个NVIDIA H100 PCIe卡
提供900gb /s的双向带宽或5倍于PCIe Gen5的带宽,使带宽最大化
大工作负载下的应用程序性能。
符合条件的H100服务器列表待定。