Grafikprozessorfähiges Rechenzentrum

Deep-Learning-Workloads im modernen KI-Rechenzentrum ausführen

Überlegungen zum Skalieren grafikprozessorfähiger Rechenzentren – technische Übersicht

Unternehmens- und Hyperscale-Rechenzentren sind zunehmend auf die Bewältigung von Workloads ausgelegt, bei denen künstliche Intelligenz (KI) und rechenintensive Deep Neural Networks (DNNs) mit massiven Datenmengen eingesetzt werden. Die erforderliche Rechenleistung ist beträchtlich und profitiert enorm von der Leistung von Grafikprozessoren. Sie sind massiv parallel, für hohe Speicherbandbreite optimiert und auf Matrix-Multiplikation und -Analysen der KI-Klasse ausgelegt, die wiederum nötig sind, um aus Daten zeitnah wertvolle Informationen zu gewinnen. Doch das sind noch nicht alle Vorteile. Rechenzentren mit Unterstützung für Grafikprozessorserver bieten deutlich höhere Effizienz und Leistung, senken den Gesamtenergieverbrauch für anspruchsvollere Workloads und haben einen geringeren Raumbedarf.

In dieser technischen Übersicht sind die Best Practices beschrieben, um ein Rechenzentrum bereit für Grafikprozessoren zu machen. Der Schwerpunkt liegt hierbei auf Stromkosten, Kühlung und Architektur, einschließlich Rack-Layout, System- und Netzwerkarchitektur sowie der Speicherkapazität. Anhand von Beispielen für rechenintensive Workloads auf NVIDIA® DGX-1™-Systemen für Deep Learning und NVIDIA® Tesla® V100-Grafikprozessoren werden in diesem Artikel Strategien zur Kostenminimierung erläutert. Mit unseren Tipps finden Sie zudem heraus, wie Sie Ihr Rechenzentrum für NVIDIA-Grafikprozessoren optimieren, sodass selbst komplexe Workloads bedarfsgerecht ausgeführt werden.

gpu-ready-data-center-tech-overview-625-u-de@2x

MELDEN SIE SICH FÜR DEN DOWNLOAD AN

Laden Sie die neuen Regeln und Best Practices für die Ausführung von Deep-Learning-Workloads im modernen KI-Rechenzentrum herunter.