Nvidia Hopper GPU 架構宣布,“下一代加速運算”

英偉達今天,該公司宣布推出 Nvidia Hopper GPU 架構,該公司稱其為「下一代加速運算」的新平台,因此放棄了一些新的運算技術進步。 Hopper 是 Ampere 系列的正式後繼產品,這款新平台預計將比其前身實現驚人的性能飛躍。

H100 建立在這個新平台上,是第一個基於 Hopper 架構建構的 GPU。以下是這張新卡的一些功能:

  • 世界上最先進的晶片— H100 採用專為NVIDIA 加速計算需求而設計的尖端TSMC 4N 工藝,由800 億個晶體管構建而成,在加速AI、HPC、內存頻寬、互連和通信方面取得了重大進展,包括每秒近5 TB 的外部資料傳輸速度連接性。 H100 是首款支援 PCIe Gen5 的 GPU,也是首款利用 HBM3 的 GPU,可實現 3TB/s 的記憶體頻寬。二十個 H100 GPU 可以維持相當於全世界的網路流量,使客戶能夠提供先進的推薦系統和即時運行資料推理的大型語言模型。
  • 新變壓器引擎— Transformer 現在是自然語言處理的標準模型選擇,是有史以來最重要的深度學習模型之一。 H100 加速器的 Transformer 引擎旨在將這些網路的速度比上一代產品提高 6 倍,而不會失去準確性。
  • 第二代安全多實例 GPU — MIG 技術允許將單一 GPU 分割為七個較小的、完全隔離的實例,以處理不同類型的作業。 Hopper 架構透過在每個 GPU 執行個體的雲端環境中提供安全的多租用戶配置,將 MIG 功能比上一代擴展了多達 7 倍。
  • 機密運算-H100是世界上第一個具有機密運算功能的加速器,可以在處理人工智慧模型和客戶資料時保護它們。客戶還可以將機密計算應用於聯邦學習適用於醫療保健和金融服務等隱私敏感行業以及共享雲端基礎設施。
  • 第四代NVIDIA NVLink — 為了加速最大的AI 模型,NVLink 與新的外部NVLink 交換器相結合,將NVLink 作為擴展網路擴展到伺服器之外,以比使用NVIDIA 的上一代產品高9 倍的頻寬連接多達256 個H100 GPU HDR 量子 InfiniBand。
  • DPX 說明— 新的 DPX 指令可加速動態編程(用於多種演算法,包括路線優化和基因組學),與 CPU 相比,速度提高了 40 倍,與上一代 GPU 相比,速度提高了 7 倍。其中包括用於在動態倉庫環境中為自主機器人車隊尋找最佳路線的 Floyd-Warshall 演算法,以及用於 DNA 和蛋白質分類和折疊的序列比對的 Smith-Waterman 演算法。

H100已經利用雲端技術獲得了整個行業的廣泛支持,包括阿里雲、亞馬遜網路服務、百度人工智慧雲端、谷歌雲端、微軟Azure、甲骨文雲騰訊雲端計畫提供基於H100的實例。我們迫不及待地想看到 Nvidia Hopper GPU 架構在遊戲中的應用,因為這有望將發展推向新的高度。

來源:英偉達