NVIDIA Base Command Manager

AI 基礎設施解決方案

AI 網格

在四散各地的 AI 基礎設施協調工作負載,擴大 AI 原生應用範圍。

概覽

生成式、代理型與物理 AI 的分散式基礎設施

新式 AI 應用兼具即時、超個人化與資料密集的特性,服務對象涵蓋全球數百萬使用者、代理與機器。電信業者擁有得天獨厚的優勢,能將現有基礎設施轉化為 AI 網格,讓 AI 更靠近實際應用智慧的現場,正好能因應這項需求。

AI 網格是分散式的互連協調 AI 基礎設施平台,在效能最優異的位置執行每項工作負載。它連接 AI 工廠以及區域中心與邊緣站點,讓資料、模型與代理能以一體化系統的方式在分散式站點安全移動。 

NVIDIA 提供驅動 AI 網格的加速運算、網路與軟體堆疊,協助業者快速釋放分散式 AI 算力,驅動嶄新的 AI 原生體驗

NVIDIA 與電信領導者打造 AI 網格,在分散式網路實現最佳化的推論效能

AI 原生應用持續擴大規模,涵蓋的使用者、代理與裝置愈來愈多,電信網路正成為分散 AI 部署的下一個舞台。

利用 NVIDIA 技術輕鬆建置及部署 AI 網格

NVIDIA AI 網格參考設計讓業者以一體化的方式,在分散的地點建置、部署及協調 AI。

優勢

在最佳地點執行每種 AI 工作負載

可預測的延遲

在最靠近使用者、代理與機器的基礎設施執行推論,讓 AI 原生服務維持順暢回應。這有助於業者符合嚴格的服務層級協議 (SLA),實現即時語音、視覺與控制體驗。

更優異的 Token 成本效益

利用成本效益最高的運算與網路技術,在節點執行 Token 密集型工作負載,減少網路傳輸的資料量,並降低迴歸成本,而且服務品質不打折扣。

更高的使用率與韌性

將多個分散式站點視為單一 AI 算力池,提升 GPU 使用率,並減少閒置資源。如果站點故障,便會自動跨網格重新平衡工作負載,維持服務連續性。

大規模並行處理

在諸多分散式站點執行 AI 原生服務,處理瞬間爆量的使用者、應用程式與代理,並且維持體驗品質與成本穩定。

產品

AI 網格的基石

NVIDIA 提供的一體化平台,為分散式站點配備完整堆疊的 AI 基礎設施,將站點轉化為互連的協調式 AI 網格。

高效能 GPU

在集中式 AI 工廠,NVIDIA GB300 NVL72 等機架級系統,可為訓練、微調與大規模推理工作負載實現極致的傳輸量。在分散式網格站點,NVIDIA RTX PRO™ 6000 Blackwell 伺服器版 GPU 提供多功能且符合成本效益的推論平台,無需大幅改裝即可融入現有電信基礎設施。

NVIDIA Spectrum-X 乙太網路

NVIDIA Spectrum-X™ 乙太網路透過基於聚合乙太網路 (RoCE) 自適應路由與最佳化壅塞控制的遠端直接記憶體存取 (RDMA),將儲存效能加速近 50%,並減少通訊瓶頸。企業可利用它高效擴充 AI 應用範圍,並且將 AI 系統使用率最大化。

NVIDIA BlueField DPU

NVIDIA® BlueField® DPU 在 AI 工廠與分散於全球各地的環境卸載、加速及隔離基礎設施服務,讓多個租戶與工作負載能以安全高效的方式,共享通用的高效能基礎設施。電信業者整合 BlueField,既可強化安全性,還能將 AI 傳輸量與效率最佳化。

TensorRT LLM

NVIDIA TensorRT™ LLM 是開源函式庫,用於在 NVIDIA GPU 執行高效能即時大型語言模型 (LLM) 推論。它採用模組化 Python 執行環境、PyTorch 原生編寫方式,以及穩定的正式環境 API,經過最佳化,可將傳輸量最大化、將成本降至最低,並且提供快速的使用者體驗。

NVIDIA Dynamo

NVIDIA Dynamo 是分散式推論服務框架,用於以 AI 工廠規模在多節點環境部署模型。它解耦推論、將路由最佳化,並透過資料快取將記憶體延伸至符合成本效益的儲存層,進而簡化分散式服務。

NVIDIA NIM 微服務

NVIDIA NIM™ 是一系列簡單易用的推論微服務,可用於加速基礎模型的部署作業,並可確保資料安全。NVIDIA NIM 已針對企業級推理最佳化。

使用案例

分散式智慧實際應用

探索 NVIDIA 驅動的 AI 網格如何催生新一類 AI 原生應用程式,讓這類程式得以透過即時且符合成本效益的方式大規模取用智慧。

物理 AI

物理 AI 讓機器人、車輛、攝影機與 IoT 系統能夠在物理世界感知、推理及行動。AI 網格讓 NVIDIA Metropolis 能在靠近攝影機的地方執行城市規模的視覺 AI,實現即時分析,並且在嵌入式算力不足時,讓自主機器人將較繁重的規劃與推理作業卸載至附近地點。

即時 AI

對話式人工智慧助理這類互動式 AI 服務,仰賴緊密的端到端延遲與抖動控制,才能實現感覺自然且回應迅速的體驗。AI 網格在物理距離靠近資料的節點執行這些工作負載,即使在需求高峰或局部停電期間也能保有延遲餘裕,並將每個請求分配至最佳可用資源。

超個人化

個人化 AI 助理、媒體與體育體驗,以及企業應用程式,必須針對成千上萬或數百萬同時進行的工作階段,即時調整回應內容。在 AI 網格,業者可在區域節點快取使用者或租戶情境,在更靠近使用者的位置執行個人化邏輯與生成,在改善尾端延遲的同時,確保全天候個人化的成本效益維持在可持續的範圍內。

AI 原生網路功能

RAN、流量導引與使用者平面最佳化等網路工作負載,愈來愈仰賴 AI 分析流程並即時做出決策。AI 網格在與應用程式相同的分散式基礎設施上執行這些 AI 原生網路功能,不僅能提高使用率,還能讓路由、政策執行更智慧,並且提升整個網路體驗的品質。

後續步驟

準備好開始了嗎?

利用 NVIDIA AI Grid 參考設計,大規模打造 AI 網格,提供一體化的軟硬體堆疊,將分散式站點轉化為互連且協調的 AI 基礎設施。

聯絡我們

提問或索取更多資訊。我們的專家隨時提供協助。

隨時掌握 NVIDIA 最新消息

訂閱即可取得 NVIDIA 最新的 AI 與電信資訊。