在四散各地的 AI 基礎設施協調工作負載,擴大 AI 原生應用範圍。
在最靠近使用者、代理與機器的基礎設施執行推論,讓 AI 原生服務維持順暢回應。這有助於業者符合嚴格的服務層級協議 (SLA),實現即時語音、視覺與控制體驗。
利用成本效益最高的運算與網路技術,在節點執行 Token 密集型工作負載,減少網路傳輸的資料量,並降低迴歸成本,而且服務品質不打折扣。
將多個分散式站點視為單一 AI 算力池,提升 GPU 使用率,並減少閒置資源。如果站點故障,便會自動跨網格重新平衡工作負載,維持服務連續性。
在諸多分散式站點執行 AI 原生服務,處理瞬間爆量的使用者、應用程式與代理,並且維持體驗品質與成本穩定。
NVIDIA 提供的一體化平台,為分散式站點配備完整堆疊的 AI 基礎設施,將站點轉化為互連的協調式 AI 網格。
探索 NVIDIA 驅動的 AI 網格如何催生新一類 AI 原生應用程式,讓這類程式得以透過即時且符合成本效益的方式大規模取用智慧。
物理 AI 讓機器人、車輛、攝影機與 IoT 系統能夠在物理世界感知、推理及行動。AI 網格讓 NVIDIA Metropolis 能在靠近攝影機的地方執行城市規模的視覺 AI,實現即時分析,並且在嵌入式算力不足時,讓自主機器人將較繁重的規劃與推理作業卸載至附近地點。
對話式人工智慧助理這類互動式 AI 服務,仰賴緊密的端到端延遲與抖動控制,才能實現感覺自然且回應迅速的體驗。AI 網格在物理距離靠近資料的節點執行這些工作負載,即使在需求高峰或局部停電期間也能保有延遲餘裕,並將每個請求分配至最佳可用資源。
個人化 AI 助理、媒體與體育體驗,以及企業應用程式,必須針對成千上萬或數百萬同時進行的工作階段,即時調整回應內容。在 AI 網格,業者可在區域節點快取使用者或租戶情境,在更靠近使用者的位置執行個人化邏輯與生成,在改善尾端延遲的同時,確保全天候個人化的成本效益維持在可持續的範圍內。
後續步驟