AI算力需求持续释放,重点看好AI服务器产业链
-- 报告摘要 --
A I服务器直接受益于需求端增长, Nvidia高速互联助力Al运算。2018年至今,模型升级带来参数量指数级增加,Al训练+推理段模型需求催生AI 服务器海量需求(训练阶段算力需求=6×模型参数数量×训练集规模),按照A100640GB服务器参数假设,据测算,训练端需要服务器数量为3423台/日,推理端按照1亿活跃用户测算对应成本为4000万美元,并随着用户量和访问互动量上升, 算力需求持续提升。此外, Nvidia高速互联助力A I 运算,800G交换机陆续发布,下一代超宽互联蓄势待发。









-- 以上为本文报告前10页预览 --

