NVIDIA Grace CPU

專為解決全世界最龐大運算問題而打造。

加速最大型的人工智慧、高效能運算、雲端和超大規模工作負載

人工智慧模型的複雜度和規模皆呈現爆炸式成長,不僅加強涵蓋數十 TB 資料的深度推薦系統、藉由數千億參數改善對話式人工智慧,也促進了全新的科學發現。我們需要能快速存取大量記憶體,並整合運用 CPU 與 GPU 的新架構,才能擴充這些大型模型。NVIDIA Grace™ CPU 提供高效能、能源效率和高頻寬連線能力,可用於多種配置,滿足不同資料中心的需求。

使用 NVIDIA Grace Hopper Superchip 增進推薦系統的準確度。

取得 NVIDIA 超級晶片的最新消息

瞭解 NVIDIA Grace CPU 如何驅動最新的大型記憶體超級電腦。

GH200 Grace Hopper Superchip

NVIDIA 推出新一代 GH200 Grace Hopper 超級晶片平台

全球首款 HBM3e 處理器,為加速運算和生成式人工智慧時代提供突破性的記憶體和頻寬。

NVIDIA and Softbank

NVIDIA 和 SoftBank 借助生成式 AI 重塑 5G 數據中心

基於 Arm 的 NVIDIA Grace Hopper Superchip、BlueField-3 DPU 和 Aerial SDK 為生成式 AI 和 5G/6G 通信提供革命性的架構。

 UK Research Alliance, GW4, Arm, HPE

節能超級電腦新浪潮

瞭解採用 NVIDIA Grace CPU 的最新款節能 Arm 超級電腦。

NVIDIA GH200 Grace Hopper Superchips Are in Full Production

NVIDIA GH200 Grace Hopper 超級晶片全面投產

GH200 驅動的系統加入了全球系統製造商正在推出的 400 多種系統配置,以滿足對生成 AI 不斷增長的需求。

Creating Accelerated Data Centers Faster With NVIDIA MGX

使用 NVIDIA MGX 更快地創建加速數據中心

了解 QCT 和 Supermicro 如何採用模塊化設計,以快速且經濟高效的方式為廣泛的 AI、高性能計算 (HPC) 和 5G 應用構建多個數據中心配置。

Massive Shared GPU Memory for Giant AI Models

適用於大型人工智慧模型的大容量共用 GPU 記憶體

瞭解 NVIDIA Grace Hopper 超級晶片如何驅動最新的大型記憶體超級電腦。

看看超芯的Grace陣容

NVIDIA Grace Hopper 超級晶片

NVIDIA Grace Hopper™ 超級晶片使用 NVIDIA® NVLink®-C2C 結合 Grace 及 Hopper 架構,為加速人工智慧及高效能運算 (HPC) 應用程式提供 CPU + GPU 一致性記憶體模型。

NVIDIA Grace Hopper Superchip
NVIDIA Grace CPU Superchip

NVIDIA Grace CPU 超級晶片

NVIDIA Grace CPU 超級晶片採用 NVLink-C2C 技術,可提供 144 Arm® Neoverse V2 核心與每秒 1 TB 的記憶體頻寬。

專為現代資料中心工作負載設計的 NVIDIA Grace

支援數位孿生人工智慧與高效能運算的系統設計。

OVX-Digital Twins & Omniverse

NVIDIA OVX™

支援數位孿生和 NVIDIA Omniverse™。.

NVIDIA Grace CPU Superchip
NVIDIA GPUs
NVIDIA BlueField®-3

HGX-HPC

NVIDIA HGX™

支援高效能運算。

NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
OEM 定義的 IO

HGX-AI Training, Inference & HPC

NVIDIA HGX

支援人工智慧訓練、推論與高效能運算。

NVIDIA Grace Hopper Superchip
NVIDIA BlueField-3
OEM 定義的 IO/第四代 NVLink

專為解決複雜問題而設計

NVIDIA Grace CPU 運用 Arm® 架構的彈性,專為加速運算需求而從頭打造 CPU 和伺服器架構。與現今最快速的伺服器相比,此創新設計可提供高達 30 倍的彙總頻寬,且能為執行數 TB 資料的應用程式,提供高達 10 倍的效能。NVIDIA Grace 專為科學家與研究人員設計,讓他們得以訓練全球最大型的模型來解決最複雜的問題。

深入瞭解最新創新技術

使用 NVLink-C2C 加速 CPU 至 GPU 連線

要解決最龐大的人工智慧和高效能運算問題,需要高容量與高頻寬記憶體 (HBM)。第四代 NVIDIA NVLink-C2C 在 NVIDIA Grace CPU 和 NVIDIA GPU 之間提供每秒 900 GB (GB/秒) 的雙向頻寬。此連線的快取一致性整合記憶體位址空間結合系統與高頻寬 GPU 記憶體,簡化可程控功能。在 CPU 與 GPU 之間建立一致的高頻寬連線,是加速處理未來極複雜問題的關鍵。

使用 LPDDR5X 駕馭高頻寬 CPU 記憶體

NVIDIA Grace 是第一個透過錯誤修正程式碼 (ECC) 等機制,運用伺服器級可靠性駕馭 LPDDR5X 記憶體的伺服器 CPU,不僅能滿足資料中心的需求,同時亦提供比現今伺服器記憶體高 2 倍的記憶體頻寬,以及最高 10 倍的能源效率。NVIDIA Grace LPDDR5X 解決方案結合大型、高效能、末級快取,可提供大型模型所需的頻寬,同時降低系統功率,為新一代工作負載提供極致的效能。

使用 Arm Neoverse v2 核心提升效能和效率

隨著 GPU 的平行運算功能持續進步,工作負載仍可能因 CPU 執行的序列工作而受限。快速有效率的 CPU 是系統設計的重要元素,可支援最高的工作負載加速。NVIDIA Grace CPU 整合 Arm Neoverse V2 核心與 NVIDIA 設計的可擴充連貫網狀架構,以節能設計提供高效能讓科學家和研究人員能更輕鬆地完成畢生傑作。

運用 HBM3 和 HBM3e GPU 記憶體大幅強化生成式人工智慧

生成式人工智慧需要大量記憶體和運算。NVIDIA GH200 Grace Hopper 超級晶片採用 96GB HBM3 記憶體,提供的 GPU 記憶體頻寬是原版 A100 的 2.5 倍以上。新一代的 GH200 是全球第一款採用 141GB HBM3e 記憶體技術的處理器,與原版 A100 相比,可提供超過 3 倍的頻寬。NVIDIA Grace Hopper 中的 HBM 透過 NVLink-C2C 與 CPU 記憶體結合,為 GPU 提供超過 600 GB 的快速存取記憶體,為處理全球最複雜的加速運算和生成式人工智慧工作負載提供所需的記憶體容量和頻寬。

認識我們的合作夥伴

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

探索更多資源

Grace 精選內容

瞭解 NVIDIA Grace Hopper 超級晶片如何用於處理最艱鉅的人工智慧挑戰。