KI-Datenspeicher-Ökosystem für Rechenzentren
Neugestaltung von Inferenz-Datenspeicher für die nächste Dimension von KI.
Überblick
NVIDIA® CMX™ Context Memory Storage ist eine KI-native Kontext-Ebene für langen Kontext, Multi-Turn und agentische KI-Inferenz. Er wird vom NVIDIA BlueField®-4 Datenspeicherprozessor unterstützt und erweitert den GPU-Speicher mit einer gemeinsamen Kontextebene auf Pod-Ebene, die für ephemere Key-Value-Cache (KV) optimiert ist. Die Plattform bietet einen Pfad mit hoher Bandbreite, der Latenz, Kosten und Energieaufwand für umfangreiche Inferenz-Workloads reduziert und so einen höheren Durchsatz und eine bessere Energieeffizienz auf NVIDIA Rubin Plattformen ermöglicht.
Produkte
Von beschleunigtem Kontextspeicher und sicherer Datenübertragung bis hin zu Ethernet-Fabrics und Inferenz-Frameworks – NVIDIA CMX ist das Ergebnis einer intensiven Zusammenarbeit in den Bereichen Computing, Netzwerke, Speicher und Software.
Produktvorteile
NVIDIA CMX führt eine dedizierte Kontextebene ein, die den nachhaltigen Durchsatz und die Energieeffizienz für KV-Cache-intensive Workloads mit langem Kontext im Vergleich zu herkömmlichen Datenspeicheransätzen verbessert.
Skalieren Sie KI-Dienste mit einer hocheffizienten, KV-Cache-optimierten Speicherebene, die essenzielle Leistung zurückgewinnt und so mehr Leistung im Rechenzentrum für GPUs statt für herkömmliche Speicher bereitstellt.
Optimieren Sie Datenpfade und reduzieren Sie Verzögerungen durch die Wiederverwendung von vorberechnetem KV-Cache aus der CMX-Ebene, anstatt ihn neu zu berechnen. Dies steigert die Anzahl der Token pro Sekunde und den Durchsatz für agentische Multi-Turn-Inferenz. CMX reduziert die Zeit bis zum ersten Token und die Zeit bis zum letzten Token, sodass Antworten früher gestreamt und schneller fertig gestellt werden, selbst wenn Modelle, Kontextfenster und Gleichzeitigkeit wachsen.
Bieten Sie einen schnellen, podweiten Zugriff auf KI-native Kontexte, damit Multi-Turn-Agenten sich koordinieren, Zustände austauschen und nahtlos skalieren können, wenn die Arbeitslast zunimmt, und gleichzeitig die Duplizierung von KV-Cache und unausgelasteten Kapazitäten über Knoten hinweg reduzieren.
Stellen Sie eine enorme KV-Cache-Kapazität bereit, um Long-Context-Reasoning, Multi-Agenten-Workflows, Modelle mit Billionen Parametern und längere Kontext-Fenster für viele gleichzeitige Benutzer zu unterstützen.
NVIDIA STX ist eine modulare Referenzarchitektur für KI-Datenspeicher, die gemeinsam mit führenden Datenspeicherpartnern entwickelt wurde und auf beschleunigter Rechen-, Netzwerk- und KI-Software von NVIDIA basiert. NVIDIA STX bietet die Grundlage für die Entwicklung einer universellen Daten-Engine, die den gesamten KI-Lebenszyklus beschleunigt, vom Training und der Analyse bis hin zur agentischen Inferenz in Echtzeit.
Ökosystem
Ressourcen
Kontaktieren Sie das NVIDIA Enterprise-Vertriebsteam oder Ihren Partner im NVIDIA Partner Network (NPN)-Programm, um direkt durchzustarten.
Sprechen Sie mit einem NVIDIA Spezialisten über die geschäftlichen Anforderungen.
Melden Sie sich an, um die neuesten Nachrichten, Updates und mehr von NVIDIA zu erhalten.