NVIDIA Base Command Manager

KI-Infrastrukturlösungen

AI Grids

Skalieren Sie KI-native Anwendungen, indem Sie Workloads über eine geografisch verteilte KI-Infrastruktur hinweg orchestrieren.

Überblick

Verteilte Infrastruktur für generative, agentische und physische KI

Moderne KI-Anwendungen sind in Echtzeit, hyper-personalisiert und datenintensiv und dienen Millionen von Benutzern, Agenten und Maschinen weltweit. Telekommunikationsbetreiber sind in der einzigartigen Position, um dieser Nachfrage gerecht zu werden, indem sie ihre bestehende Infrastruktur in KI-Netzwerke umwandeln und KI dort einsetzen, wo Intelligenz eingesetzt wird.

Ein KI-Raster ist eine verteilte, miteinander verbundene und orchestrierte KI-Infrastrukturplattform, die jeden Workload dort ausführt, wo er die beste Leistung bietet. Es verbindet KI-Fabriken mit regionalen Hubs und Edge-Standorten, sodass Daten, Modelle und Agenten sicher über verteilte Standorte hinweg übertragen werden können, die als einheitliches System betrieben werden. 

NVIDIA bietet den beschleunigten Computing-, Netzwerk- und Software-Stack, der KI-Netze unterstützt, und hilft Betreibern, schnell verteilte KI-Kapazität zu erschließen und neue KI-native Erlebnisse zu ermöglichen.

NVIDIA und führende Telekommunikationsunternehmen entwickeln KI-Grids, um die Inferenz in verteilten Netzwerken zu optimieren

Da KI-native Anwendungen für mehr Benutzer, Agenten und Geräte skaliert werden, entwickelt sich das Telekommunikationsnetzwerk zum nächsten Vorreiter für die Verteilung von KI.

Einfache Entwicklung und Bereitstellung von AI Grids mit NVIDIA

Das NVIDIA AI Grid-Referenzdesign bietet Betreibern eine einheitliche Möglichkeit, KI über verteilte Standorte hinweg zu entwickeln, bereitzustellen und zu orchestrieren.

Vorteile

Führen Sie jeden KI-Workload am optimalen Standort aus.

Vorhersehbare Latenz

Sorgen Sie dafür, dass KI-native Dienste reaktionsschnell bleiben, indem Sie Inferenz auf der Infrastruktur ausführen, die den Benutzern, Agenten und Maschinen am nächsten ist. Dies hilft Betreibern, strenge Service-Level-Vereinbarungen (SLAs) für Sprach-, Vision- und Steuerungserlebnisse in Echtzeit zu erfüllen.

Bessere Token-Wirtschaftlichkeit

Führen Sie tokenintensive Workloads auf Knoten mit der kosteneffizientesten Rechen- und Netzwerktechnik aus, wodurch das Datenvolumen über das Netzwerk reduziert und die Egress-Kosten gesenkt werden, ohne die Servicequalität zu beeinträchtigen.

Höhere Auslastung und Ausfallsicherheit

Behandeln Sie viele verteilte Standorte als einen einzigen Pool von KI-Kapazitäten, um die GPU-Auslastung zu erhöhen und ungenutzte Ressourcen zu reduzieren. Wenn ein Standort ausfällt, werden Workloads automatisch über das gesamte Netzwerk hinweg neu ausgeglichen, um die Service-Kontinuität aufrechtzuerhalten.

Parallele Nutzung in großem Maßstab

Führen Sie KI-native Dienste an vielen verteilten Standorten aus, um einen massiven Anstieg der Anzahl gleichzeitiger Benutzer, Anwendungen und Agenten zu bewältigen und gleichzeitig eine konsistente Quality of Experience und Kosten zu gewährleisten.

Produkte

Die Bausteine für ein KI-Netz

NVIDIA bietet eine einheitliche Plattform, um verteilte Standorte mit einer Full-Stack-KI-Infrastruktur auszustatten und sie in verbundene, orchestrierte KI-Netze umzuwandeln.

Leistungsstarke GPUs

In zentralisierten KI-Fabriken bieten Rack-Scale-Systeme wie die NVIDIA GB300 NVL72 einen hohen Durchsatz für Training, Feinabstimmung und groß angelegte Reasoning-Workloads. Über verteilte Netzstandorte hinweg bieten die NVIDIA RTX PRO™ 6000 Blackwell Server Edition-GPUs eine vielseitige und kostengünstige Inferenzplattform, die sich mit minimaler Nachrüstung in bestehende Telekommunikationsstandorte einfügen lässt.

NVIDIA Spectrum-X Ethernet

Durch adaptives Routing über Remote Direct-Memory Access (RDMA) Over Converged Ethernet (RoCE) und eine optimierte Überlastungssteuerung beschleunigt NVIDIA Spectrum-X™ Ethernet die Datenspeicherleistung um fast 50 Prozent und reduziert Kommunikationsengpässe. Damit können Unternehmen KI-Anwendungen effizient skalieren und gleichzeitig die Nutzung des KI-Systems maximieren.

NVIDIA BlueField DPUs

NVIDIA® BlueField® DPUs entlasten, beschleunigen und isolieren Infrastrukturdienste in KI-Fabriken und global verteilten Umgebungen, sodass mehrere Mandanten und Workloads sicher und effizient eine gemeinsame leistungsstarke Infrastruktur gemeinsam nutzen können. Telekommunikationsbetreiber integrieren BlueField, um die Sicherheit zu verbessern und den KI-Durchsatz und die Effizienz zu optimieren.

TensorRT-LLM

NVIDIA TensorRT™ LLM ist eine Open-Source-Bibliothek für leistungsstarke Echtzeit-Inferenz großer Sprachmodelle (LLM) auf NVIDIA-GPUs. Mit einer modularen Python-Runtime, PyTorch-nativem Authoring und einer stabilen Produktions-API wurde sie optimiert, um den Durchsatz zu maximieren, die Kosten zu minimieren und ein schnelles Benutzererlebnis zu ermöglichen.

NVIDIA Dynamo

NVIDIA Dynamo ist ein verteiltes Inferenz-Serving-Framework für die Bereitstellung von Modellen in Multi-Knoten-Umgebungen im KI-Fabrikmaßstab. Es optimiert die verteilte Bereitstellung durch Disaggregation der Inferenz, Optimierung des Routing und Erweiterung des Speichers durch Daten-Caching auf kostengünstige Datenspeicherstufen.

NVIDIA NIM-Microservices

NVIDIA NIM™ ist ein Set von benutzerfreundlichen Inferenz-Microservices zur Beschleunigung der Bereitstellung von Foundation-Modellen und zur Sicherung von Daten. NVIDIA NIM ist für Inferenz im Unternehmensmaßstab optimiert. 

Anwendungsbeispiele

Verteilte Intelligenz in Aktion

Erfahren Sie, wie NVIDIA-gestützte KI-Gitter eine neue Klasse von KI-nativen Anwendungen ermöglichen, die einen Echtzeit- und kosteneffizienten Zugriff auf Intelligenz in großem Maßstab erfordern.

Physische KI

Physische KI ermöglicht es Robotern, Fahrzeugen, Kameras und IoT-Systemen, die physische Welt wahrzunehmen, zu analysieren und in ihr zu handeln. Mithilfe von KI-Rastern kann NVIDIA Metropolis Vision-KI im städtischen Maßstab für Echtzeitanalysen in der Nähe von Kameras ausführen, während autonome Roboter aufwändige Planung und Schlussfolgerung an nahe gelegene Standorte auslagern, wenn die eingebettete Rechenleistung nicht ausreichend ist.

Echtzeit-KI

Interaktive KI-Dienste wie Gesprächs-KI-Assistenten sind auf eine enge End-to-End-Latenz und Jitter-Kontrolle angewiesen, um sich natürlich und reaktionsschnell anzufühlen. KI-Netze führen diese Workloads auf Knoten aus, die physisch in der Nähe der Daten liegen. Dabei bleiben Latenzspielräume erhalten und jede Anforderung wird an die besten verfügbaren Ressourcen weitergeleitet, selbst bei Nachfragespitzen oder teilweisen Ausfällen.

Hyper-Personalisierung

Personalisierte KI-Assistenten, Medien- und Sporterlebnisse sowie Unternehmensanwendungen müssen Antworten in Echtzeit an Tausende oder Millionen gleichzeitiger Sitzungen anpassen. In einem KI-Netzwerk können Betreiber den Benutzer- oder Mandantenkontext auf regionalen Knoten zwischenspeichern und die Personalisierungslogik und -generierung näher an den Benutzern ausführen. Dadurch wird die Tail-Latenz verbessert und gleichzeitig die Wirtschaftlichkeit der stets aktiven Personalisierung nachhaltig gewährleistet.

KI-native Netzwerkfunktionen

Netzwerk-Workloads wie RAN, Verkehrssteuerung und Optimierung auf Benutzerebene setzen zunehmend auf KI, um Flüsse zu analysieren und Entscheidungen in Echtzeit zu treffen. KI-Netze führen diese KI-nativen Netzwerkfunktionen auf derselben verteilten Infrastruktur wie Anwendungen aus. Dadurch werden die Auslastung verbessert und ein intelligenteres Routing, die Durchsetzung von Richtlinien und das Nutzererlebnis im gesamten Netzwerk ermöglicht.

Nächste Schritte

Sind Sie bereit?

Erstellen Sie KI-Netze in großem Maßstab mit dem NVIDIA AI Grid-Referenzdesign, das einen einheitlichen Hardware- und Software-Stack bietet, der verteilte Standorte in eine verbundene, orchestrierte KI-Infrastruktur umwandelt.

Kontakt aufnehmen

Fragen stellen oder weitere Informationen anfordern. Unsere Experten stehen Ihnen zur Verfügung.

Bleiben Sie auf dem Laufenden über NVIDIA News

Tragen Sie sich ein, um die neuesten KI- und Telekommunikationsnachrichten von NVIDIA zu erhalten.