黄仁勋又升级“装备”了。11月14日,《每日经济新闻》记者从英伟达处获悉,当地时间11月13日,英伟达宣布推出NVIDIA HGX™ H200(AI芯片型号,以下简称“H200”)。据悉,H200是首款采用HBM3e GPU(内存,相较此前速率更快、容量更大),进一步加速生成式AI与大语言模型,同时推进用于HPC(高性能计算)工作负载的科学计算,可提供传输速度4.8 TB/秒的141GB显存,与上一代架构的NVIDIA A100相比容量翻了近一倍,带宽增加了2.4倍。
图片来源:企业供图
在英伟达超大规模和高性能计算副总裁Ian Buck看来,想要通过生成式AI和HPC应用创造智能,就必须使用大型、快速的GPU显存来高速、高效地处理海量数据。当H200与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU搭配使用时,就组成了带有HBM3e的GH200 Grace™ Hopper超级芯片——专为大型HPC和AI应用而设计的计算模块。
从规格来看,H200将提供四路和八路H200服务器主板可选,与HGX H100系统的硬件和软件都兼容;还可用于今年8月发布的采用HBM3e的NVIDIA GH200 Grace Hopper™超级芯片。这些配置使H200可以部署在各类数据中心,包括本地、云、混合云和边缘;可为各种应用工作负载提供最高的性能,包括针对1750亿参数以上超大模型的LLM训练和推理。
架构方面,与前代相比,NVIDIA Hopper架构实现了性能跃升,如在一个700亿参数的LLM——Llama 2上的推理速度比H100(英伟达AI芯片)提高了近一倍。
根据英伟达方面的说法,将于2024年第二季度开始通过全球系统制造商和云服务提供商提供H200;服务器制造商和云服务提供商也预计于同一时间开始提供搭载H200的系统。