Hochleistungsfähige
Datenwissenschaft

Nutzen Sie die Leistungsfähigkeit von Grafikprozessoren, um Ihre Workflows für Datenwissenschaft, maschinelles Lernen und KI ganz einfach zu beschleunigen.

Führen Sie komplette Workflows für die Datenwissenschaft mit Hochgeschwindigkeits-GPU-Computing und Parallelisieren von Datenladungen, Datenmanipulation und maschinellem Lernen aus – für 50-mal schnellere durchgehende Pipelines für Datenwissenschaft.

Warum RAPIDS?

nvidia-data-science-process-1cn-d

Ein hochleistungsfähiges Ökosystem schaffen

RAPIDS ist eine Suite von Open-Source-Softwarebibliotheken und APIs für die Ausführung von Pipelines für die Datenwissenschaft vollständig auf GPUs – und kann die Trainingszeiten von Tagen auf wenige Minuten verkürzen. Auf NVIDIA ® CUDA-X AI basierend vereint RAPIDS jahrelange Entwicklung von Grafik, maschinellem Lernen, Deep Learning, High Performance Computing (HPC) und mehr.

Kürzere Verarbeitungszeiten

Kürzere Verarbeitungszeiten

Bei der Datenwissenschaft geht es um die Beschleunigung der Ergebnisse. RAPIDS nutzt NVIDIA CUDA®. So können Sie Ihre Arbeitsabläufe beschleunigen, indem Sie die gesamte Pipeline zum Trainieren der Datenwissenschaft auf GPUs ausführen. Dadurch verringert sich die Trainingszeit und die Frequenz der Modelbereitstellung von Tagen auf Minuten.

Dieselben Tools verwenden

Dieselben Tools verwenden

Indem die Komplexität der Arbeit mit dem Grafikprozessor und sogar die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.

Überall skaliert ausführen

Überall skaliert ausführen

RAPIDS kann an jedem beliebigen Ort – in der Cloud oder vor Ort – ausgeführt werden. Sie können ganz einfach von einer Workstation auf Server mit mehreren Grafikprozessoren skalieren und es in der Produktion mit Dask, Spark, MLFlow und Kubernetes bereitstellen.

Blitzschnelle Leistung für Big Data

Die Ergebnisse zeigen, dass Grafikprozessoren bei kleinen und großen Big Data-Analyseproblemen für große Kosten- und Zeitersparnisse sorgen. Mithilfe vertrauter APIs wie Pandas und Dask kann RAPIDS bei einer Skalierung mit 10 Terabyte bis zu 20-mal schneller auf Grafikprozessoren eingesetzt werden als auf der höchsten CPU-Baseline. Mit nur 16 NVIDIA DGX A100s wird die Leistung von 350 Servern erreicht – damit ist die Lösung von NVIDIA 7-mal kostengünstiger und bietet gleichzeitig eine Leistung auf HPC-Niveau.

nvidia-16-dgx-a100-2c50-d

Schnellerer Datenzugriff, weniger Datenverkehr

Bei gängigen Datenverarbeitungsaufgaben gibt es viele Schritte (Datenpipelines), die mit Hadoop nicht effizient bewältigt werden können. Apache Spark löste dieses Problem, indem alle Daten im Systemspeicher behalten wurden, die flexiblere und komplexere Datenpipelines ermöglichten, aber zu neuen Engpässen führten. Die Analyse selbst einiger hundert Gigabyte (GB) an Daten kann auf Spark-Clustern mit Hunderten von CPU-Knoten Stunden, wenn nicht sogar Tage dauern. Um das echte Potenzial der Datenwissenschaft auszuschöpfen, müssen Grafikprozessoren im Mittelpunkt des Rechenzentrums stehen, bestehend aus diesen fünf Elementen: Computing, Networking, Speicher, Bereitstellung und Software. Allgemein gesehen sind durchgängige Datenwissenschafts-Workflows auf Grafikprozessoren 10-mal schneller als auf CPUs.

BLOG LESEN ›

Entwicklung der Datenverarbeitung

Schnellerer Datenzugriff, weniger Datenverkehr

Überall RAPIDS

RAPIDS schafft eine Grundlage für ein neues Hochleistungs-Ökosystem für Datenwissenschaft und reduziert die Einstiegsschranke für neue Bibliotheken durch Interoperabilität. Die Integration in führende datenwissenschaftliche Frameworks wie Apache Spark, cuPY, Dask und Numba sowie zahlreiche Deep Learning-Frameworks wie PyTorch, TensorFlow und Apache MxNet helfen dabei, die Akzeptanz zu erweitern und die Integration für andere zu fördern.

  • Projekte im Spotlight
  • Mitwirkende
  • Benutzer
  • Open Source
blazingsql-logo

BlazingSQL ist eine hochleistungsfähige verteilte SQL-Engine in Python, die auf RAPIDS basiert, um riesige Datensätze auf Grafikprozessoren zu verwenden.

nvtabular-logo

Auf RAPIDS basierend beschleunigt NVTabular die Funktionstechnik und die Vorverarbeitung für Empfehlungssysteme auf Grafikprozessoren.

custreamz-logo

Basierend auf Streamz und RAPIDS und in Python geschrieben beschleunigt cuStreamz das Streamen der Datenverarbeitung auf GPUs.

plotly-dash-logo

Integriert in RAPIDS ermöglicht Pender Strich die interaktive visuelle Analyse von Datensätzen mit mehreren Gigabyte selbst auf einer einzelnen GPU in Echtzeit.

apache-spark-logo

Der RAPIDS Accelerator für Apache Spark bietet eine Reihe von Plug-ins für Apache Spark, die GPUs nutzen, um die Verarbeitung über RAPIDS und UCX-Software zu beschleunigen.

anaconda-logo
Blazing SQL
capital-one-logo
cupy-logo
chainer-logo
deepwave-digital-logo
gunrock-logo
quansight-logo
walmart-logo
booz-allen-hamilton-logo
capital-one-logo
databricks-logo
graphistry-logo
h2oai-logo
ibm-logo
iguazio-logo
inria-logo
kinetica-logo
mapr-logo
omnisci-logo
preferred-networks-logo
pytorch-logo
uber-logo
ursa-labs-logo
walmart-logo
apache-arrow-logo
Blazing SQL
cupy-logo
dask-logo
gpu-open-analytics-initiative-goai-logo
nuclio-logo
numba-logo
scikit-learn-logo
dmlc-xgboost-logo

Technologie im Mittelpunkt

RAPIDS basiert auf CUDA-Primitives für die Low-Level-Computing-Optimierung, stellt aber diese GPU-Parallelität und hohe Speicherbandbreite durch benutzerfreundliche Python-Schnittstellen zur Verfügung. RAPIDS unterstützt durchgängige Workflows in der Datenwissenschaft, von der Datenladung über die Vorverarbeitung bis hin zum maschinellen Lernen, Grafikanalysen und Visualisierung. Es handelt sich um einen voll funktionsfähigen Python-Stack, der sich für Big Data-Anwendungsfälle in Unternehmen skalieren lässt.

Datenladung und -vorverarbeitung

Datenladung und -vorverarbeitung

Die Funktionen für das Laden und die Vorverarbeitung von Daten sowie für ETL von RAPIDS basieren auf Apache Arrow, um Daten zu laden, zu verbinden, zu aggregieren, zu filtern und anderweitig zu manipulieren – und das alles in einer Pandas-ähnlichen API, die Datenwissenschaftlern vertraut ist. Für Benutzer ist typischerweise eine 10-fache oder noch höhere Beschleunigung zu erwarten.

Maschinelles Lernen

Maschinelles Lernen

Die Algorithmen und mathematischen Primitives des maschinellen Lernens von RAPIDS folgen einer bekannten Scikit-Learn-ähnlichen API. Beliebte Tools wie XGBoost, Random Forest und viele andere werden sowohl für einzelne Grafikprozessoren als auch für große Rechenzentren eingesetzt. Bei großen Datensätzen können diese GPU-basierten Implementierungen 10- bis 50-mal schneller abgeschlossen werden als ihre CPU-Äquivalente.

Grafikanalyse

Grafikanalyse

Die Grafikalgorithmen von RAPIDS wie PageRank und Funktionen wie NetworkX nutzen die massive Parallelität von GPUs effizient, um die Analyse großer Grafiken um mehr als das 1000-Fache zu beschleunigen. Untersuchen Sie bis zu 200 Millionen Edges auf einem einzelnen NVIDIA A100 Tensor Core-Grafikprozessor und skalieren Sie auf Milliarden von Edges auf NVIDIA DGX A100-Clustern.

Visualisierung

Visualisierung

Die Visualisierungsfunktionen von RAPIDS unterstützen grafikprozessorbeschleunigte Querfilterung. Inspiriert durch die JavaScript-Version des Originals, ermöglicht es interaktive und superschnelle, mehrdimensionale Filterung von über 100 Millionen tabellarischen Zeilendatensätzen.

Maschinelles Lernen bis hin zu Deep Learning: alles auf GPU

Deep-Learning-Integration

Während Deep Learning in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Empfehlungsdiensten effektiv ist, gibt es Bereiche, in denen der Einsatz nicht zum Mainstream gehört. Die tabellarischen Datenprobleme, die aus den Spalten kategorischer und kontinuierlicher Variablen bestehen, verwenden häufig Methoden wie XGBoost, Gradient Boosting oder lineare Modelle. RAPIDS rationiert die Vorverarbeitung von tabellarischen Daten auf Grafikprozessoren und stellt eine lückenlose Datenübergabe direkt an alle Frameworks zur Verfügung, die DLPack unterstützen, wie PyTorch, TensorFlow und MxNet. Diese Integrationen eröffnen neue Möglichkeiten für die Erstellung von reichhaltigen Workflows, selbst solche, die zuvor aus Vernunft heraus entstanden sind, wie das Rückführen neuer Funktionen, die aus Deep Learning-Frameworks entstehen, in Algorithmen.

Moderne Rechenzentren für Datenwissenschaft

Für den Aufbau von KI-optimierten Rechenzentren im Unternehmen gibt es fünf wesentliche Bestandteile. Der Schlüssel liegt darin, GPUs in den Mittelpunkt zu stellen.

Rechenleistung

Rechenleistung

Mit ihrer enormen Rechenleistung sind Systeme mit NVIDIA-GPUs die Computing-Kernkomponente für KI-Rechenzentren. NVIDIA DGX-Systeme bieten bahnbrechende KI-Leistung und können im Durchschnitt 50 Dual-Socket-CPU-Server ersetzen. Dies ist der erste Schritt, um Datenwissenschaftlern die leistungsstärksten Tools der Branche für die Datenerforschung zu bieten.

Software

Software

Indem die Komplexität der Arbeit mit dem Grafikprozessor und die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.

Netzwerk

Netzwerk

Der direkte Remotezugriff auf den Speicher (RDMA) in NVIDIA Mellanox®-Netzwerkschnittstellen-Controllern (NICs), NCCL2 (NVIDIA-kollektive Kommunikationsbibliothek) und OpenUCX (Open-Source-Point-to-point-Kommunikations-Framework) hat zu enormen Verbesserungen der Trainingsgeschwindigkeit geführt. Mit RDMA können GPUs über Knoten hinweg mit bis zu 100 Gigabit pro Sekunde (Gb/s) direkt miteinander kommunizieren. Sie können mehrere Knoten umfassen und arbeiten, als befänden sie sich auf einem einzigen riesigen Server.

Implementierung

Implementierung

Unternehmen wechseln zu Kubernetes- und Docker-Containern für die Bereitstellung von Pipelines im großen Maßstab. Die Kombination containerisierter Anwendungen mit Kubernetes ermöglicht es Unternehmen, die Prioritäten für die wichtigste Aufgabe zu ändern, und erhöht die Ausfallsicherheit, Zuverlässigkeit sowie Skalierbarkeit von KI-Rechenzentren.

Datenspeicher

Datenspeicher

GPUDirect® Storage ermöglicht es sowohl NVME als auch NVMe over Fabric (NVMe-oF), Daten direkt am Grafikprozessor zu lesen und zu schreiben, unter Umgehung der CPU und des Systemspeichers. Dadurch werden die CPU und der Systemspeicher für andere Aufgaben freigegeben. Gleichzeitig werden jedem Grafikprozessor auf Größenordnungen mehr Daten mit bis zu 50 Prozent größerer Bandbreite zur Nutzung gegeben.

Unser Bekenntnis zu Open-Source-Datenwissenschaft

NVIDIA setzt sich für die Vereinfachung, Vereinheitlichung und Beschleunigung der Datenwissenschaft für die Open Source-Community ein. Durch die Optimierung des gesamten Stacks – von der Hardware bis hin zur Software – und durch die Beseitigung von Engpässen für iterative Datenwissenschaft hilft NVIDIA Datenwissenschaftlern überall, mehr denn je mit weniger zu erreichen. Dies bedeutet für Unternehmen mehr Wert aus ihren wertvollsten Ressourcen: ihren Daten und Datenwissenschaftlern. Als Apache 2.0-Open-Source-Software bringt RAPIDS ein Ökosystem auf GPUs zusammen.

Ohne Rechenleistung mussten die Datenwissenschaftler ihre Algorithmen „dumm stellen“, um schnell genug zu liefen. Das ist nun vorbei: GPUs erlauben es uns, zuvor Unmögliches zu tun.

– Bill Groves, Chief Data Officer, Walmart

Die globalen Modelle der NASA erzeugen Terabytes an Daten. Vor RAPIDS wurde eine Schaltfläche gedrückt und sechs oder sieben Stunden auf die Ergebnisse gewartet. Die Beschleunigung des Trainingszyklus war für die Entwicklung der Modelle ein völlig neuer Ansatz.

– Dr. John Keller, NASA Goddard Space Flight Center

Mit einer 100-fachen Verbesserung der Trainingszeiten und einer Kosteneinsparung von 98 Prozent sieht Capital One RAPIDS.ai und Dask als den nächsten großen Durchbruch für Datenwissenschaft und maschinelles Lernen.

– Mike McCarty, Director of Software Engineering, Capital One Center for Machine Learning

Legen Sie los