每日经济新闻
要闻

每经网首页 > 要闻 > 正文

英伟达发布“超级AI芯片”H200 预计明年第二季度开始供应

每日经济新闻 2023-11-14 17:26:41

每经记者 杨卉    每经编辑 董兴生    

黄仁勋又升级“装备”了。11月14日,《每日经济新闻》记者从英伟达处获悉,当地时间11月13日,英伟达宣布推出NVIDIA HGX™  H200(AI芯片型号,以下简称“H200”)。据悉,H200是首款采用HBM3e GPU(内存,相较此前速率更快、容量更大),进一步加速生成式AI与大语言模型,同时推进用于HPC(高性能计算)工作负载的科学计算,可提供传输速度4.8 TB/秒的141GB显存,与上一代架构的NVIDIA A100相比容量翻了近一倍,带宽增加了2.4倍。

图片来源:企业供图

在英伟达超大规模和高性能计算副总裁Ian Buck看来,想要通过生成式AI和HPC应用创造智能,就必须使用大型、快速的GPU显存来高速、高效地处理海量数据。当H200与采用超高速NVLink-C2C互连技术的NVIDIA Grace CPU搭配使用时,就组成了带有HBM3e的GH200 Grace™ Hopper超级芯片——专为大型HPC和AI应用而设计的计算模块。

从规格来看,H200将提供四路和八路H200服务器主板可选,与HGX H100系统的硬件和软件都兼容;还可用于今年8月发布的采用HBM3e的NVIDIA GH200 Grace Hopper™超级芯片。这些配置使H200可以部署在各类数据中心,包括本地、云、混合云和边缘;可为各种应用工作负载提供最高的性能,包括针对1750亿参数以上超大模型的LLM训练和推理。

架构方面,与前代相比,NVIDIA Hopper架构实现了性能跃升,如在一个700亿参数的LLM——Llama 2上的推理速度比H100(英伟达AI芯片)提高了近一倍。

根据英伟达方面的说法,将于2024年第二季度开始通过全球系统制造商和云服务提供商提供H200;服务器制造商和云服务提供商也预计于同一时间开始提供搭载H200的系统。

 

如需转载请与《每日经济新闻》报社联系。
未经《每日经济新闻》报社授权,严禁转载或镜像,违者必究。

读者热线:4008890008

特别提醒:如果我们使用了您的图片,请作者与本站联系索取稿酬。如您不希望作品出现在本站,可联系我们要求撤下您的作品。

英伟达 Ai AI芯片

欢迎关注每日经济新闻APP

每经经济新闻官方APP

0

0