【事项】

5月29日,英伟达在当日的COMPUTEX大会推出了NVIDIADGXGH200人工智能(AI)超级计算机,这款计算机由NVIDIAGH200GraceHopper超级芯片和NVIDIANVLinkSwitchSystem提供支持。DGXGH200集成了256颗GH200GraceHopper超级芯片,拥有144TB共享内存,可以为大型生成式人工智能模型以及其他应用提供高达1exaflop的计算能力。英伟达CEO黄仁勋在大会上宣布,公司的GraceHopper超级芯片现已全面投产。

黄仁勋表示,DGXGH200AI超级计算机集成了英伟达最先进的加速计算和网络技术,以拓展人工智能的前沿领域。同时,英伟达正致力于使DGXGH200在今年年底上市。谷歌云、Meta和微软将会是首批有望获得DGXGH200访问权的公司。


(相关资料图)

【评论】

自去年年底OpenAI发布ChatGPT以来,生成式人工智能逐渐确定成为新趋势,而创建文本、图像、视频等内容需要通过超强算力来实现,算力已经成为AI的刚需,芯片巨头英伟达生产的人工智能芯片在该领域至关重要。此前,英伟达在AI训练端先后推出了V100、A100、H100三款芯片,以及为了满足美国标准,向中国大陆销售的A100和H100的带宽缩减版产品A800和H800。

DGXGH200人工智能超级计算平台是英伟达针对最高端的人工智能和高性能计算工作负载而设计的系统和参考架构,目前的DGXA100系统只能将八个A100GPU联合起来作为一个单元,考虑到生成型人工智能的爆炸式增长,英伟达的客户迫切需要更大、更强大的系统,DGXGH200就是为了提供最大的吞吐量和可扩展性而设计的,它通过使用英伟达的定制NVLinkSwitch芯片来避免标准集群连接选项(如InfiniBand和以太网)的限制。通过256块超级芯片组成的DGXGH200显然有着超越前代产品DGXA100的计算能力。而且,英伟达也正在打造基于DGXGH200的大型AI超级计算机NVIDIAHelios,其中采用4个DGXGH200系统、1024颗GraceHopper超级芯片,每个都将与英伟达Quantum-2InfiniBand网络连接,带宽高达400Gb/s,预计于今年年底上线。

芯片巨头的算力迭代极其迅速,说明下游云厂商以及企业侧对于生成式AI技术具备强烈需求,相关算力板块(包括GPU、服务器、光模块、数据中心等)有望具备较大业绩弹性。

AI芯片是AI算力的根基。需求逐渐爆发,数据海量增长,大模型参数趋多,对计算性能要求愈发严格。GPU相较于CPU,优势在于并行计算。在大会上,黄仁勋向传统CPU服务器集群发起“挑战”,直言在人工智能和加速计算这一未来方向上,GPU服务器有着更为强大的优势。随着需要大量计算能力的AI应用出现,GPU将成为主角,英伟达主导了当前全球AIGPU市场。举例来说,训练一个LLM大语言模型,将需要960个CPU组成的服务器集群,这将耗费大约1000万美元(约合人民币7070万元),并消耗11千兆瓦时的电力。相比之下,同样以1000万美元的成本去组建GPU服务器集群,将以仅3.2千兆瓦时的电力消耗,训练44个LLM大模型。如果同样消耗11千兆瓦时的电量,那么GPU服务器集群能够实现150倍的加速,训练150个LLM大模型,且占地面积更小。而当用户仅仅想训练一个LLM大模型时,则只需要一个40万美元左右,消耗0.13千兆瓦时电力的GPU服务器即可。相比CPU服务器,GPU服务器能够以4%的成本和1.2%的电力消耗来训练一个LLM,这将带来巨大的成本节省。在大模型时代背景和高景气的需求带动下,GPU将会成为算力产业链中至关重要不可或缺的一环。

建议关注:

算力芯片:景嘉微、寒武纪、海光信息(电子组覆盖)、云天励飞等

算力服务:中科曙光、浪潮信息、中国长城等

边缘算力:网宿科技、首都在线、润泽科技(未覆盖)、优刻得(未覆盖)等

【风险提示】

人工智能技术落地应用不及预期;

竞争格局恶化;

信创不及预期。

推荐内容