在人工智慧效能的頂尖評量基準 MLPerf 中,NVIDIA 訓練與推論解決方案樹立了效能標竿紀錄。
MLPerf 是由學術界、研究實驗室和業界人士組成的人工智慧領袖聯盟,基於「打造公平、實用基準」的使命,為硬體、軟體和服務的訓練與推斷效能提供中立評估,且全部在預定條件下執行。為了在業界趨勢中保持領先地位,MLPerf 透過定期進行新的測試,並增加能體現最尖端人工智慧技術的全新工作負載,持續進化。
MLPerf Training v0.7 是第三階段的具體化訓練,由八種不同的工作負載組成,涵蓋多種使用案例,包括視覺、語言、推薦系統和強化學習。
MLPerf Inference v0.7 測試了七種不同神經網路中的五種不同使用案例。其中三種使用案例適用電腦視覺、一種針對推薦系統、兩種語言處理,另外一種醫療影像。
從一組固定類別中為輸入影像指派標籤,應用於如自駕車等使用案例的電腦視覺問題。詳細資訊.
在影像或影片中尋找真實世界中的物體,如臉部、自行車和建築,並指定每個物體周圍的邊框。 詳細資訊.
在影像集中偵測感興趣的物體,並為每個物體都識別出像素遮罩。詳細資訊.
使用遞歸神經網路 (RNN) 將某種語言的文本翻譯成另一種語言。詳細資訊.
使用前饋神經網路 (FNN) 將某種語言的文本翻譯成另一種語言。詳細資訊.
利用文字區塊中不同單詞間的關係瞭解文字。能夠解答問題、釋義句子,及完成許多其他語言相關的使用案例。詳細資訊.
透過瞭解使用者與服務產品之間的互動 (如產品或廣告),為使用者端服務提供個人化結果 (如社群媒體或電子商務網站)。詳細資訊.
在 19x19 網格座標上的策略遊戲《Go》中,評估所採取之動作的不同可能性,以獲得最大報酬。詳細資訊.
NVIDIA A100 Tensor 核心 GPU 和 NVIDIA DGX SuperPOD™ 在上市系統的每個晶片和大規模工作負載中,共創下 16 項訓練效能記錄。此突破性的效能源自於硬體、軟體與 級系統技術的緊密整合。NVIDIA 持續投資全方位效能,成功改善了三個 MLPerf 提交的輸送量。
NVIDIA 的全方位創新讓效能持續提升
比較一個 Epoch 上的單一 DGX-1V 伺服器與 DGX A100 (透過神經網路一段式傳輸資料集) 輸送量 | MLPerf ID 0.5/0.6/0.7 比較:ResNet-50 v 1.5:0.5-12、/0.6-8/0.7-39、0.7-18 | SSD:0.5-13/0.6-9 /0.7-40、0.719 | GNMT:0.5-13/0.6-9 /0.7-40 0.7-19 | 遮罩 R-CNN:0.5-13/0.6-9 /0.7-40 0.7-19 | Transformer:0.5-13/0.6-9 0.7-40、0.7-19。| MLPerf 名稱與標誌為商標。請參閱 www.mlperf.org 以瞭解更多資訊。
適用於市面上的解決方案
在適用的情況下,比較相同規模下各晶片的效能。使用 MLPerf 0.7 NVIDIA A100 (8 個 A100) 回報的效能進行每個加速器的比較。MLPerf ID DLRM:0.7-17、ResNet50 v1.5:0.7-18、0.7-15 BERT、GNMT、遮罩 R-CNN、SSD、Transformer:07-19、MiniGo:0.7-20。最大規模:使用 NVIDIA DGX A100 (8 個 A100) 時,MLPerf v0.7 的所有成果。MLPerf ID 最大規模:ResNet-50 v 1.5:0.7-37、遮罩 R-CNN:0.7-28、SSD:0.7-33、GNMT:0.7-34、Transformer:0.7-30、MiniGo:0.7-36、BERT:0.7-38、DLRM:0.7-17。| MLPerf 名稱與標誌為商標。請參閱 www.mlperf.org 以瞭解更多資訊。
NVIDIA 在全部五種情境 (伺服器、離線、邊緣端單一串流、多串流和離線) 中,都達到了頂尖成果。此外,在上市產品中,我們在跨全部五個基準測試中,達到各加速器最佳的效能表現。這些成果不僅證明了 NVIDIA 在推論效能的領先地位,也說明我們的推論平台具備多功能性。
NVIDIA Turing 架構
1) 用於資料中心伺服器裝置,以及離線與伺服器情境 MLPerf v0.7 的推論成果,擷取自 www.mlperf.org,擷取日期為 2020 年 10 月 21 日。每個處理器效能的計算方法是將整體效能的主要指標除以回報的加速器數量。 2) 用於邊緣裝置,以及單一串流與多串流情境的 MLPerf v0.7 推論成果,擷取自 www.mlperf.org,擷取日期為 2020 年 10 月 21 日。
需要平台在各方面間緊密整合,才能實現複雜的人工智慧技術。誠如 MLPerf 的基準測試成果所示,NVIDIA 人工智慧平台利用全球最先進的 GPU、強大且可擴充的互連技術,及尖端軟體提供領先效能,是一款可部署在資料中心、雲端或邊緣的端對端解決方案,更能達到驚人成效。
NGC™ 作為 NVIDIA 平台及促成 MLPerf 訓練與推論成果的基本元件,是一款適用於 GPU 最佳化人工智慧、高效能運算 (HPC) 和資料分析軟體的中樞,可簡化並加速端對端工作流程。NGC 擁有超過 150 個企業級容器,包括對話型人工智慧和推薦系統的工作負載、超過 100 個模型,及可部署於本機、雲端或邊緣的特定產業 SDK,讓資料科學家、研究人員和開發人員能以前所未有的速度打造出一流的解決方案、搜集見解,並提供商業價值。
若要在訓練與推論中獲得領先全球的成果,需要具備專為全球最複雜人工智慧挑戰而打造的基礎架構。NVIDIA 人工智慧平台可運用 NVIDIA A100 Tensor 核心 GPU、NVIDIA T4 Tensor 核心 GPU 以及 NVIDIA 互連技術的可擴充性和彈性的強大功能,提供 NVLink®、NVSwitch™ 及 Mellanox ConnectX-6 VPI。這些都是 NVIDIA DGX™ A100 的核心,也是我們基準測試效能背後的引擎。
NVIDIA DGX™ 系統提供了可擴充性、快速部署和強大的運算能力,讓每個企業都能打造頂尖的人工智慧基礎架構。
深入瞭解我們的資料中心訓練和推論產品效能。