NVIDIA Grace CPU

專為解決全世界最龐大運算問題而打造。

加速最大型的人工智慧、高效能運算、雲端和超大規模工作負載

人工智慧模型的複雜度和規模皆呈現爆炸式成長,不僅藉由數千億參數改善對話式人工智慧、強化含數十 TB 資料深度推薦系統,也促進了全新的科學發現。這些龐大模型不斷挑戰現今系統的效能極限。需要能快速存取大量記憶體,並整合運用 CPU 與 GPU,才能持續擴充這些模型以提高準確性和實用性。

產品

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper Superchip 使用 NVIDIA NVLink-C2C 結合 Grace 及 Hopper 架構,為加速人工智慧及高效能運算 (HPC) 應用程式提供 CPU+GPU 一致性記憶體模型。

  • 專為大規模人工智慧與高效能運算設計的 CPU+GPU
  • 每秒 900 GB 的全新整合型介面,比 PCIe 第 5 代快 7 倍
  • 相較於 DGX A100,GPU 的彙總系統記憶體頻寬提高 30 倍
  • 執行所有 NVIDIA 軟體堆疊和平台,包括 NVIDIA 高效能運算、NVIDIA 人工智慧與 NVIDIA Omniverse
NVIDIA Grace Hopper Superchip
NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip 運用 NVLink-C2C 技術提供 144 個 Arm® v9 核心,以及每秒 1 TB 的記憶體頻寬。

  • 適用於高效能運算與雲端運算的高效能 CPU
  • 具備多達 144 個 Arm v9 CPU 核心的超級晶片
  • 全球第一款採用 ECC 的 LPDDR5x 記憶體,總頻寬為每秒 1TB。
  • SPECrate®2017_int_base 超過 740 (預估)
  • 每秒 900 GB 一致性介面,速度比 PCIe 第五代快 7 倍
  • 封裝密度為 DIMM 解決方案的 2 倍
  • 每瓦效率為現今主要 CPU 的兩倍
  • 執行所有 NVIDIA 軟體堆疊與平台,包括 NVIDIA RTX、高效能運算、NVIDIA 人工智慧和 NVIDIA Omniverse

觀看 NVIDIA 創辦人暨執行長黃仁勳的主題演講,他將在演講中發表 NVIDIA Grace CPU 超級晶片。

專為解決複雜問題而設計

NVIDIA Grace CPU 運用 Arm® 架構的彈性,專為加速運算需求而從頭打造 CPU 和伺服器架構。與現今最快速的伺服器相比,此創新設計可提供高達 30 倍的彙總頻寬,且能為執行數 TB 資料的應用程式,提供高達 10 倍的效能。NVIDIA Grace 專為科學家與研究人員設計,讓他們得以訓練全球最大型的模型來解決最複雜的問題。

最新技術創新

第四代 NVIDIA NVLink-C2C

要解決最龐大的人工智慧和高效能運算問題,需要高容量與高頻寬記憶體 (HBM)。第四代 NVIDIA NVLink-C2C 在 NVIDIA Grace CPU 和 NVIDIA GPU 之間提供每秒 900 GB (GB/秒) 的雙向頻寬。此連線的快取一致性整合記憶體位址空間結合系統與高頻寬 GPU 記憶體,簡化可程控功能。在 CPU 與 GPU 之間建立一致的高頻寬連線,是加速未來極複雜人工智慧與高效能運算問題的關鍵。

使用 LPDDR5x 與 ECC 技術,提供全新高頻寬記憶體子系統

記憶體頻寬是伺服器效能的關鍵要素,而標準雙倍資料速率 (DDR) 記憶體會佔用整體插槽功率相當大的一部分。NVIDIA Grace CPU 是第一個透過錯誤修正程式碼 (ECC) 等機制,運用伺服器級可靠性駕馭 LPDDR5x 記憶體的伺服器 CPU,不僅能滿足資料中心的需求,同時亦提供比現今伺服器記憶體高 2 倍的記憶體頻寬,以及最高 10 倍的能源效率。NVIDIA Grace LPDDR5x 解決方案結合大型、高效能、末級快取,可提供大型模型所需的頻寬,同時降低系統功率,為新一代工作負載提供極致的效能。

新一代的 Arm v9 核心

隨著 GPU 的平行運算功能持續進步,工作負載仍可能因 CPU 執行的序列工作而受限。快速有效率的 CPU 是系統設計的重要元素,可支援最高的工作負載加速。NVIDIA Grace CPU 整合新一代的 Arm v9 核心,雖具高效能但同時擁有節能設計,讓科學家和研究人員能更輕鬆地完成他們的畢生志業。

觀看 NVIDIA 創辦人暨執行長黃仁勳發表 GTC 主題演講揭曉 NVIDIA Grace CPU 超級晶片,精彩內容不容錯過;您也可以閱讀新聞稿,瞭解更多資訊。