NVIDIA Virtual Compute Server

Leistung für die rechenintensivsten Server-Workloads für KVM-basierte Infrastrukturen

Maximale Leistung zur Maximierung von Workloads

KI-, Deep-Learning- und Datenwissenschafts-Workflows erfordern nie dagewesene Rechenleistung. Mit Virtual Compute Server (vCS) von NVIDIA können Rechenzentren, die auf Red Hat Enterprise Linux, Red Hat Virtualization und anderen unterstützten KVM-basierten Hypervisoren ausgeführt werden, die Servervirtualisierung mit aktuellen NVIDIA-Grafikprozessoren für Rechenzentren beschleunigen, etwa dem NVIDIA A100 Tensor Core-Grafikprozessor und A30, sodass die rechenintensivsten Workloads, wie künstliche Intelligenz, Deep Learning und Datenwissenschaft, in einer virtuellen Maschine (VM) mit NVIDIA vGPU-Technologie ausgeführt werden können.

NVIDIA AI Enterprise

NVIDIA AI Enterprise ist eine cloudnative End-to-End-Suite, bestehend aus KI- und Datenanalysesoftware, die dafür optimiert ist, dass jede Organisation KI nutzen kann, zertifiziert für die Bereitstellung an jedem Ort – vom Unternehmens-Rechenzentrum bis zur öffentlichen Cloud – und umfasst globalen Unternehmenssupport, um KI-Projekte auf Kurs zu halten. Für virtualisierte Rechenzentren mit VMware wird NVIDIA AI Enterprise auf VMware vSphere mit Tanzu und VMware Cloud Foundation mit Tanzu optimiert, zertifiziert und unterstützt. 

Für maximale Effizienz skaliert 

NVIDIA Virtual GPUs bieten Ihnen nahezu Bare-Metal-Leistung in einer virtualisierten Umgebung, maximale Auslastung, Verwaltung und Überwachung in einer KVM-basierten Hypervisor-Virtualisierungsumgebung für GPU-beschleunigte KI.

Leistungsskalierung für Deep-Learning-Training mit vCS auf NVIDIA A100 Tensor-Core-GPUs

Entwickler, Datenwissenschaftler, Forscher und Studenten benötigen enorme Rechenleistung für Deep-Learning-Training. Unsere A100 Tensor-Core-GPU beschleunigt die Arbeit, wodurch schneller mehr erreicht werden kann. NVIDIA-Software, der Virtual Compute Server, bietet nahezu die gleiche Leistung wie Bare Metal, selbst wenn sie auf große Deep-Learning-Trainingsmodelle skaliert wird, die mehrere GPUs verwenden.

Durchsatzleistung bei Deep-Learning-Inferenz mit MIG auf NVIDIA A100 Tensor-Core-GPUs mit vCS

Multi-Instance GPU (MIG) ist eine Technologie, die nur auf der NVIDIA A100 Tensor-Core-GPU zu finden ist und die A100-GPU in bis zu sieben Instanzen partitioniert, die jeweils vollständig mit eigenem Speicher mit hoher Bandbreite sowie eigenem Cache und eigenen Rechenkernen isoliert sind. MIG kann mit Virtual Compute Server verwendet werden und bietet eine VM pro MIG-Instanz.  Die Leistung ist gleichbleibend, ob nun ein Inferenz-Workload über mehrere MIG-Instanzen auf Bare Metal ausgeführt oder mit vCS virtualisiert wird.

Ressourcen für IT-Manager

Erfahren Sie, wie NVIDIA Virtual Compute Server die Leistung maximiert und das IT-Management in KVM-basierten Infrastrukturen vereinfacht.

Nutzungsoptimierung

Nutzungsoptimierung

Schöpfen Sie wertvolle GPU-Ressourcen voll aus, indem Sie GPUs nahtlos für einfachere Workloads wie Inferenz aufteilen oder mehrere virtuelle GPUs für rechenintensivere Workloads wie Deep-Learning-Training bereitstellen.

Verwaltbarkeit und Überwachung

Verwaltbarkeit und Überwachung

Sichern Sie die Verfügbarkeit und Einsatzbereitschaft der Systeme, die Datenwissenschaftler und Forscher benötigen. Überwachen Sie die GPU-Leistung auf Gast-, Host- und Anwendungsebene. Sie können sogar Verwaltungstools wie Anhalten/Fortsetzen und Live-Migration nutzen. Erfahren Sie mehr über die betrieblichen Vorteile der GPU-Virtualisierung.

Unterstützte GPUs durchsuchen

Virtual Compute Server wird bei den leistungsstärksten NVIDIA-GPUs unterstützt, einschließlich der NVIDIA A100-Tensor-Core-GPU, NVIDIA A30-Tensor-Core-GPU, NVIDIA A40-GPU, NVIDIA T4-GPU und NVIDIA V100-Tensor-Core-GPU.

Vollständige Liste empfohlener NVIDIA-GPUs für Virtualisierung anzeigen.

NVIDIA arbeitet mit einem breiten Ökosystem von OEM-Partnern zusammen, die auf der Seite Zertifizierten Server finden einsehbar sind.

Erst testen, dann kaufen

Registrieren Sie sich für eine 90-tägige kostenlose Testversion

vCS kaufen

Erwerben Sie Ihre NVIDIA vGPU-Lösung von einem Partner des NVIDIA-Partnernetzes (NPN). Unser umfangreiches Netzwerk geschulter Partner kann Ihnen beim Gestalten und Bereitstellen einer optimal beschleunigten virtualisierten Umgebung helfen.

FAQ

Weitere Virtual-GPU-Softwarelösungen entdecken

Virtuelle NVIDIA RTX-Workstations (vWS)

Virtuelle NVIDIA RTX-Workstations (vWS)

Virtuelle Workstations für Kreative und technische Experten, die Grafikanwendungen verwenden.

NVIDIA Virtual PC (vPC)

NVIDIA Virtual PC (vPC)

Virtual Desktop (VDI) für Knowledge Worker, die Produktivitätsanwendungen für Office & Multimedia verwenden.

NVIDIA Virtual Applications (vApps)

NVIDIA Virtual Applications (vApps)

Anwendungsstreaming mit RDSH-Lösungen (Remote Desktop Session Host).

Bezugsquellen

Finden Sie einen NVIDIA-Partner für
NVIDIA vGPU-Lösungen.

Software herunterladen

Zugriff auf die neueste
NVIDIA vGPU-Software.

Support erhalten

Kontakt mit dem NVIDIA Enterprise
Support aufnehmen.