Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Speziell entwickelt für die einzigartigen Anforderungen der KI.
NVIDIA DGX SuperPOD™ bietet eine erstklassige KI-Infrastruktur mit agiler, skalierbarer Leistung für die anspruchsvollsten KI-Training- und -Inferenz-Workloads. DGX SuperPOD ist mit einer Auswahl von Rechenoptionen, die von NVIDIA Blackwell unterstützt werden, auf der NVIDIA DGX™ Plattform verfügbar. Es ist nicht nur eine Sammlung von Hardware, sondern eine ganzheitliche Rechenzentrumsplattform, die branchenführendes Computing, Speicher, Netzwerktechnik, Software und Infrastrukturmanagement umfasst. All diese Aspekte arbeiten optimal zusammen und ermöglichen eine maximale Leistung in großem Umfang.
Ein sofort einsatzbereiter KI-Supercomputer mit optimiertem Design und hochleistungsfähiger Rechen-, Netzwerk-, Datenspeicher- und Softwareintegration.
Bei der Skalierung auf Zehntausende von NVIDIA-GPUs befasst sich NVIDIA DGX SuperPOD mit Training und Inferenz für hochmoderne generative KI-Modelle mit Billionen von Parametern.
Beinhaltet unternehmenstaugliches Cluster- und Workload-Management, Bibliotheken, die die Rechen-, Speicher- und Netzwerkinfrastruktur beschleunigen, sowie ein Betriebssystem, das für KI-Workloads optimiert ist.
Umfassend getestet und mit echten Unternehmens-KI-Workloads an die Grenzen gebracht, damit Sie sich keine Sorgen um die Anwendungsleistung machen müssen.
Anleitung und Support während des gesamten Infrastrukturlebenszyklus mit Zugang zu Experten, die die gesamte Bandbreite abdecken, um KI-Workloads mit Spitzenleistung zu gewährleisten.
NVIDIA DGX SuperPOD bietet eine einsatzbereite KI-Rechenzentrumslösung für Unternehmen, die KI-Fabriken bauen und erstklassiges Computing, Software-Tools, Fachwissen und kontinuierliche Innovation wünschen. Mit einer Auswahl von Rechenoptionen ermöglicht NVIDIA DGX SuperPOD jedem Unternehmen, KI in sein Geschäft zu integrieren und innovative Anwendungen zu erstellen, anstatt mit einer komplexen Plattform zu kämpfen.
NVIDIA DGX SuperPOD bietet immer die besten KI-Innovationen von NVIDIA und die gesamte Palette von Rechenoptionen der NVIDIA DGX-Plattform, die von NVIDIA Blackwell unterstützt werden.
Das fortschrittlichste flüssigkeitsgekühlte KI-System von NVIDIA auf der Grundlage von NVIDIA Grace Blackwell Ultra Superchips für KI-Training, Post-Training-Optimierung und Test-Time-Inferenz der komplexesten KI-Modelle.
KI-System auf Basis von NVIDIA Blackwell Ultra für das Training und die Inferenz von umfangreicher generativer KI und anderen Transformer-basierten Workloads.
Erstklassiges, flüssigkeitsgekühltes KI-System mit NVIDIA Grace Blackwell Superchips für das hochmoderne Foundation-Modelltraining und Inferenz in großem Maßstab.
Einheitliches KI-System auf Basis von NVIDIA Blackwell für jede Phase der KI-Pipeline – vom Training über die Feinabstimmung bis zur Inferenz.
KI-Supercomputer, optimiert für große Workloads mit generativer KI und andere Transformer-basierte Workloads.
DGX SuperPOD mit NVIDIA DGX B200 Systemen ist die ideale Lösung für skalierte Infrastruktur, die Unternehmensteams jeder Größe mit komplexen, vielfältigen KI-Workloads unterstützt, z. B. zur Erstellung großer Sprachmodelle, zur Optimierung von Lieferketten oder zur Gewinnung von Erkenntnissen aus großen Datenmengen.
DGX SuperPOD mit NVIDIA DGX H200 Systemen eignet sich am besten für skalierte Infrastrukturen, um die größten, komplexesten oder Transformer-basierten KI-Workloads zu unterstützen, wie LLMs mit dem NVIDIA NeMo-Framework und Deep-Learning-Empfehlungssysteme.
NVIDIA Mission Control optimiert den KI-Fabrikbetrieb, bietet sofortige Agilität, Infrastrukturausfallsicherheit und Hyperscale-Effizienz und beschleunigt KI-Experimente für Unternehmen mit Full-Stack-Software-Intelligenz.
Wir sind Pioniere bei eigens entwickelten LLMs für die japanische Sprache – unser Ziel ist 390 Milliarden Parametern. Dies bietet Unternehmen fein abgestimmte KI-Lösungen, die auf ihre Kultur und ihre Praktiken zugeschnitten sind, und nutzt DGX SuperPOD und den NVIDIA AI Enterprise Software-Stack für eine nahtlose Entwicklung und Bereitstellung.
– Ashiq Khan, Vice President und Leiter der Unified Cloud and Platform Division, Softbank Corp
Wir haben unsere LLMs effektiver mit der Leistungsfähigkeit von NVIDIA DGX SuperPOD sowie den optimierten Algorithmen und 3D-Parallelitätstechniken von NeMo trainiert. Wir haben die Verwendung anderer Plattformen in Erwägung gezogen, aber es war schwierig, eine Alternative zu finden, die Full-Stack-Umgebungen bietet – von der Hardware- bis zur Inferenzebene.
– Hwijung Ryu, Leitung des LLM-Entwicklungsteams, KT Corporation
Die mit 210 PetaFLOPS ausgestattete Parem Siddhi AI [Supercomputer] von C-DAC mit DGX SuperPOD und in Indien entwickelter HPC-KI-Engine, HPC-KI-Software-Frameworks sowie einer Cloud-Plattform beschleunigt Experimente, um mithilfe von Wissenschaft und Ingenieurwesen die großen Herausforderungen in Indien zu lösen.
– Dr. Hemant Darbari, Generaldirektor, Centre for Development of Advanced Computing (C-DAC)
Dadurch können Forscher quantengenaue Molekularsimulationen von Proteinen durchführen, um Heilmittel für Krankheiten wie COVID-19 zu finden. Was mehr als 6.000 Jahre gedauert hätte, dauert jetzt nur noch einen Tag.
– Adrian Roitberg, Professor für Chemie, University of Florida
Der DGX SuperPOD unterstützt NAVER CLOVA dabei, hochmoderne Sprachmodelle für den koreanischen und den japanischen Markt zu erstellen und sich in Sachen KI-Plattformen zu einem starken Akteur auf dem Weltmarkt zu entwickeln.
– Suk Geun SG Chung, Head of COLVA CIC, Naver Corporation
Eliza, die Unternehmens-KI-Plattform von BNY, die von NVIDIA DGX SuperPOD und NVIDIA AI Enterprise unterstützt wird, revolutioniert den Betrieb und das Kundenerlebnis für mehr als 17.000 Benutzer. Mit über 40 KI-Anwendungen in der Entwicklung und einem Fokus auf verantwortungsbewusster KI treibt BNY Mellon Innovationen bei seinen globalen Finanzdienstleistungen voran.
Die Federal AI Sandbox von MITRE, unterstützt von NVIDIA DGX SuperPOD, demokratisiert den KI-Zugang in allen Regierungsbehörden, beschleunigt Innovationen und transformiert öffentliche Dienste wie Wettervorhersage, Cybersicherheit und Sozialverwaltung.
Die KI-Computing-Plattform von SoftBank Corp, die auf NVIDIA DGX SuperPOD aufbaut, wird genutzt, um selbst erstellte große Sprachmodelle (LLMs) zu entwickeln, die auf die japanische Sprache spezialisiert sind, und um Unternehmen und Forschungseinrichtungen in Japan KI-Rechenressourcen zur Verfügung zu stellen.
Der HiPerGator-KI-Cluster der University of Florida mit NVIDIA DGX SuperPOD mit Blackwell-Architektur unterstützt mehr als 60 % der Forschungsprojekte der Universität. Dieses leistungsstarke System, das das medizinische Analysetool GatorTron beinhaltet, hat im vergangenen Jahr fast 7.000 Benutzern geholfen und über 33 Millionen Forschungsanfragen bearbeitet.
Suchen Sie eine schlüsselfertige, einsatzbereite KI-Entwicklungsplattform? Equinix Private AI mit NVIDIA DGX nutzt die Colocation-Rechenzentren, die Netzwerkkonnektivität und Managed Services von Equinix, um NVIDIA DGX BasePOD und DGX SuperPOD™ zu hosten und zu betreiben.
NVIDIA Eos, die Nummer 10 der TOP500, ist ein groß angelegter NVIDIA DGX SuperPOD, der KI-Innovationen bei NVIDIA ermöglicht und Forschern hilft, Herausforderungen anzunehmen, die bisher unmöglich waren.
Die NVIDIA DGX Plattform mit NVIDIA DGX SuperPOD wurde von Grund auf für die Unternehmens-KI entwickelt und kombiniert das Beste von NVIDIA Software, Infrastruktur und Know-how in einer modernen, einheitlichen KI-Entwicklungslösung.
KI unterstützt geschäftskritische Anwendungsfälle in jeder Branche, vom Gesundheitswesen über die Fertigung bis zu Finanzdienstleistungen. NVIDIA DGX BasePOD™ bietet die Referenzarchitektur, auf der Unternehmen ihre KI-Infrastruktur aufbauen und skalieren können.
NVIDIA Enterprise Services bietet Zugang zu Support, Schulung und Infrastruktur-Spezialisten für Ihre NVIDIA-DGX-Infrastruktur. Mit den NVIDIA-Experten, die Ihnen in jeder Phase Ihrer KI-Reise zur Seite stehen, kann Ihnen Enterprise Services helfen, Ihre Projekte schnell und erfolgreich umzusetzen.
Erfahren Sie, wie Sie mit KI schneller bahnbrechende Fortschritte erzielen können: mit diesem speziellen technischen Training, das ausdrücklich für NVIDIA DGX-Kunden von den KI-Experten des NVIDIA Deep Learning Institute (DLI) angeboten wird.
NVIDIA Eos, die Nummer 9 der TOP500, ist ein groß angelegter NVIDIA DGX SuperPOD, der KI-Innovationen bei NVIDIA ermöglicht und Forschern hilft, Herausforderungen anzunehmen, die bisher unmöglich waren.
Von Spitzenplatzierungen auf Supercomputing-Listen bis hin zur Überlegenheit aller anderen KI-Infrastruktur-Optionen in MLPerf-Benchmarks ist die NVIDIA DGX-Plattform an der Spitze der Innovation. Erfahren Sie, warum Kunden NVIDIA DGX für ihre KI-Projekte wählen.
DGX SuperPOD mit DGX-GB200-Systemen ist eine flüssigkeitsgekühlte, Rack-basierte KI-Infrastruktur mit intelligenten vorausschauenden Managementfunktionen für das Training und die Inferenz von generativen KI-Modellen mit Billionen von Parametern, die von NVIDIA GB200 Grace Blackwell Superchips unterstützt werden.
Der schnellste Weg zum Einstieg in die DGX-Plattform ist die NVIDIA DGX Cloud, eine serverlose KI-Training-as-a-Service-Plattform, die speziell für Unternehmen zur Entwicklung generativer KI entwickelt wurde.
NVIDIA DGX SuperPOD bietet eine integrierte KI-Infrastrukturlösung mit zertifiziertem Hochleistungsspeicher, der von NVIDIA streng getestet und zertifiziert wurde, um die anspruchsvollsten KI-Workloads zu bewältigen und eine optimale Leistung zu gewährleisten.
NVIDIA Enterprise Services bietet Support, Schulungen und professionelle Dienstleistungen für Ihre DGX-Infrastruktur. Mit den NVIDIA-Experten, die Ihnen bei jedem Schritt Ihrer KI-Reise zur Seite stehen, können Sie mit Enterprise Services Ihre Projekte schnell und erfolgreich starten.
Erfahren Sie, wie Sie mit KI schneller bahnbrechende Fortschritte erzielen können: mit diesem speziellen technischen Training, das ausdrücklich für DGX-Kunden von den KI-Experten des NVIDIA Deep Learning Institute (DLI) angeboten wird.
Erfahren Sie mehr über die flexiblen Möglichkeiten, den NVIDIA DGX SuperPOD zu erwerben und zu nutzen, um Ihre Geschäftsziele schneller zu erreichen.
Nutzen Sie Leitfäden für die Bereitstellung und Verwaltung von DGX SuperPOD.
Entdecken Sie, wie Branchenführer generative KI auf der DGX SuperPOD nutzen, um beeindruckende finanzielle Ergebnisse zu erzielen.
NVIDIA-Datenschutzrichtlinie
NVIDIA-DGX™-Systeme mit DDN A3I sind der definitive Weg zur produktiven KI mit Kunden auf der ganzen Welt in den Bereichen generative KI, autonome Fahrzeuge, Behörden, Biowissenschaften, Finanzdienstleistungen und mehr. Unsere integrierte Lösung bietet unbegrenzte Skalierbarkeit und verbesserte Leistung bei wachsenden Clustern – für schnellere Iterationen und vor allem die Beschleunigung der geschäftlichen Innovation. Unser kombiniertes Know-how ermöglicht Kunden die schnellstmögliche Einrichtung eines hochperformanten KI-Rechenzentrums mit 10-facher Rechenleistung bei einem Bruchteil der Leistungsaufnahme von Lösungen der Mitbewerber.
KI-Integration leicht gemacht mit NVIDIA DGX A100 SuperPOD Cambridge-1: Eine NVIDIA-Erfolgsgeschichte Kostenrechner für KI-Datenspeicher
nvidia@ddn.com
Das IBM Storage Scale System ist eine von NVIDIA zertifizierte ultraperformante Lösung, die KI-Innovation fördert und sich nahtlos von NVIDIA DGX-BasePOD™- bis zu den größten DGX-SuperPOD™-Installationen skalieren lässt. Das von Tausenden Unternehmen für GPU-Beschleunigung und KI eingesetzte IBM Storage Scale System bietet 99,9999-prozentige Datenzuverlässigkeit, Cyberresilienz und Multi-Protokoll-Datenpipelines für anspruchsvollste Unternehmen. Die softwaredefinierte IBM-Storage-Lösung integriert Ihre Daten und stuft sie ein, sodass Sie eine globale Datenplattform nutzen können, um Ihrem Unternehmen einen Mehrwert zu bieten und datenintensive KI-Workloads in umsetzbare Erkenntnisse zu verwandeln.
IBM Storage Scale System 6000 – Beschleunigte Infrastruktur für KI-beschleunigte Workloads mit IBM Storage Scale & Storage Scale System
www.ibm.com/storage/nvidia
Erzielen Sie mit der VAST-Datenplattform grenzenlose Skalierung und Leistung und machen Sie große KI einfacher, schneller und leichter zu verwalten. VAST wird in einigen der weltweit größten Supercomputing-Zentren und führenden Forschungseinrichtungen eingesetzt. Die einzigartige Kombination von VAST aus massiv paralleler Architektur, unternehmenstauglicher Sicherheit, einfacher Bedienung und revolutionärer Datenreduktion ermöglicht es mehr Organisationen, KI-gesteuerte Unternehmen zu werden. Die tiefe Integration von VAST in NVIDIA-Technologien wie NVIDIA® BlueField® und GPUDirect® Storage eliminiert die Komplexität und optimiert KI-Pipelines, um Erkenntnisse zu beschleunigen.
Demokratisierung der KI für Unternehmen – mit NVIDIA DGX SuperPOD und VAST Referenzarchitektur: NVIDIA DGX SuperPOD: VAST Lösungsbeschreibung: VAST Datenplattform für NVIDIA DGX SuperPOD
hello@vastdata.com
NetApp, das Unternehmen für intelligente Dateninfrastruktur, bietet unternehmenstaugliche Speicherhardware und -services, die die anspruchsvollen Anforderungen für NVIDIA DGX SuperPOD™, NVIDIA DGX BasePOD™ und andere NVIDIA-beschleunigte Architekturen erfüllen. NetApp ONTAP® ermöglicht es Kunden, KI-Fabriken mit nahtlosem, silofreiem Datenzugriff über hybride Multicloud-Umgebungen hinweg zu bauen. Für Unternehmen, die ihre KI-Infrastruktur beschleunigen möchten, bietet NVIDIA DGX SuperPOD mit allen Vorteilen von NetApp ONTAP Datenspeicher eine unternehmenstaugliche Option zum NetApp EF600 mit BeeGFS-zertifiziertem Datenspeicher für NVIDIA DGX SuperPOD.
Design-Guide: NetApp AFF A90 Datenspeichersystem mit NVIDIA DGX SuperPOD Bereitstellungsleitfaden: NetApp AFF A90 Datenspeichersystem mit NVIDIA DGX SuperPOD NetApp KI-Lösungen
ng-AI@NetApp.com
Dell PowerScale bietet eine KI-fähige Datenplattform, die die Datenverarbeitung und das KI-Training beschleunigt – jetzt validiert auf NVIDIA DGX SuperPOD™. Die skalierbare Architektur von PowerScale ermöglicht eine mühelose Erweiterung, damit Unternehmen generative KI-Modelle verfeinern und Daten mit robusten Sicherheitsfunktionen schützen können. Dank der High-Speed-Ethernet-Konnektivität beschleunigt PowerScale den Datenzugriff auf NVIDIA DGX™-Systeme, minimiert die Übertragungszeiten und maximiert den Speicherdurchsatz. Intelligente Scale-Out-Funktionen, einschließlich Multipath Client Driver und NVIDIA® GPUDirect®, stellen sicher, dass Unternehmen Hochleistungsschwellenwerte für beschleunigtes KI-Modelltraining und Inferenz erreichen können.
Leitfaden zur Bereitstellung von Dell PowerScale F710 für DGX SuperPOD Dell PowerScale F710 Speicherreferenzarchitektur für DGX SuperPOD Lösungsbeschreibung: Dell PowerScale ist die weltweit erste Ethernet-basierte Speicherlösung, die für NVIDIA DGX SuperPOD zertifiziert ist.
www.dell.com/en-us/dt/forms/contact-us/isg.htm
Optimieren Sie Ihre Investitionen in Dateninfrastruktur und erweitern Sie die Grenzen der KI-Innovation mit der WEKApod Data Platform Appliance, die für NVIDIA DGX SuperPOD™ zertifiziert ist. Die Kombination von NVIDIA DGX™ Infrastruktur- und Netzwerktechnologien mit der WEKA® Data Platform bietet eine verbesserte Leistung für verschiedene KI-Workloads und fördert eine schnellere Modellschulung und -bereitstellung. Die fortschrittliche Scale-out-Architektur verwandelt stagnierende Datenspeichersilos in dynamische Datenpipelines, die GPUs effizienter versorgen und KI-Workloads nahtlos und nachhaltig vor Ort und in der Cloud antreiben.
Referenzarchitektur: NVIDIA DGX SuperPOD mit WEKApod Data Platform Appliance Datenblatt: WEKApod Data Platform Appliance Partnerschaft von WEKA und NVIDIA
www.weka.io/company/contact-us
Pure Storage und NVIDIA gehen eine Partnerschaft ein, um jedem Unternehmen, das sein Geschäft mit KI ausbauen möchte, die neuesten Technologien zur Verfügung zu stellen. AIRI wurde in Zusammenarbeit mit NVIDIA entwickelt und wird von NVIDIA DGX BasePOD™ und FlashBlade//S-Speicher unterstützt. Darüber hinaus ist FlashBlade//S-Speicher jetzt für NVIDIA DGX SuperPOD™ zertifiziert, eine zertifizierte schlüsselfertige KI-Rechenzentrumslösung für Unternehmen. Pure Storage ist Elite-Mitglied des NVIDIA-Partnernetzes (NPN) und arbeitet eng mit NVIDIA und den gemeinsamen Vertriebspartnern zusammen, um die Unterstützung bei der Integration der Lösung zu gewährleisten.
Pure Storage Referenz-Architektur für NVIDIA DGX SuperPOD Pure Storage Bereitstellungsanleitung für NVIDIA DGX SuperPOD Partnerschaft Pure Storage and NVIDIA
airi@purestorage.com