Nvidia Hopper GPU 架构宣布,“下一代加速计算”

英伟达今天,该公司宣布推出 Nvidia Hopper GPU 架构,该公司称其为“下一代加速计算”的新平台,因此放弃了一些新的计算技术进步。 Hopper 是 Ampere 系列的正式后继产品,这一新平台预计将比其前身实现惊人的性能飞跃。

H100 建立在这个新平台上,是第一个基于 Hopper 架构构建的 GPU。以下是这张新卡的一些功能:

  • 世界上最先进的芯片 — H100 采用专为 NVIDIA 加速计算需求而设计的尖端 TSMC 4N 工艺,由 800 亿个晶体管构建而成,在加速 AI、HPC、内存带宽、互连和通信方面取得了重大进展,包括每秒近 5 TB 的外部数据传输速度连接性。 H100 是首款支持 PCIe Gen5 的 GPU,也是首款利用 HBM3 的 GPU,可实现 3TB/s 的内存带宽。二十个 H100 GPU 可以维持相当于全世界的互联网流量,使客户能够提供先进的推荐系统和实时运行数据推理的大型语言模型。
  • 新变压器引擎— Transformer 现在是自然语言处理的标准模型选择,是有史以来最重要的深度学习模型之一。 H100 加速器的 Transformer 引擎旨在将这些网络的速度比上一代产品提高 6 倍,而不会损失准确性。
  • 第二代安全多实例 GPU — MIG 技术允许将单个 GPU 划分为七个更小的、完全隔离的实例,以处理不同类型的作业。 Hopper 架构通过在每个 GPU 实例的云环境中提供安全的多租户配置,将 MIG 功能比上一代扩展了多达 7 倍。
  • 机密计算——H100是世界上第一个具有机密计算功能的加速器,可以在处理人工智能模型和客户数据时保护它们。客户还可以将机密计算应用于联邦学习适用于医疗保健和金融服务等隐私敏感行业以及共享云基础设施。
  • 第四代 NVIDIA NVLink — 为了加速最大的 AI 模型,NVLink 与新的外部 NVLink 交换机相结合,将 NVLink 作为扩展网络扩展到服务器之外,以比使用 NVIDIA 的上一代产品高 9 倍的带宽连接多达 256 个 H100 GPU HDR 量子 InfiniBand。
  • DPX 说明— 新的 DPX 指令可加速动态编程(用于多种算法,包括路线优化和基因组学),与 CPU 相比,速度提高了 40 倍,与上一代 GPU 相比,速度提高了 7 倍。其中包括用于在动态仓库环境中为自主机器人车队寻找最佳路线的 Floyd-Warshall 算法,以及用于 DNA 和蛋白质分类和折叠的序列比对的 Smith-Waterman 算法。

H100已经利用云技术获得了整个行业的广泛支持,包括阿里云、亚马逊网络服务、百度人工智能云、谷歌云、微软Azure、甲骨文云腾讯云计划提供基于H100的实例。我们迫不及待地想看到 Nvidia Hopper GPU 架构在游戏中的应用,因为这有望将发展推向新的高度。

来源:英伟达