Scienza dei dati
ad alte prestazioni

Sfrutta la potenza delle GPU per accelerare facilmente i flussi di lavoro di scienza dei dati, machine learning e IA.

Esegui di interi flussi di lavoro di scienza dei dati con il GPU computing ad alta velocità per caricare, manipolare e applicare il machine learning ai dati in parallelo accelerando interi flussi di 50 volte.

Perché RAPIDS?

nvidia-data-science-process-1cn-d

Creare un ecosistema ad alte prestazioni

RAPIDS è una suite di librerie e API software open-source per l'esecuzione di flussi di scienza dei dati interamente su GPU e può ridurre i tempi di training da giorni a pochi minuti. Basato su NVIDIA® CUDA-X AI, RAPIDS riunisce anni di sviluppo nella grafica, nel machine learning, nel deep learning, nel calcolo ad alte prestazioni (HPC) e non solo.

Tempi di esecuzione più rapidi

Tempi di esecuzione più rapidi

La scienza dei dati consiste nell'accelerare i risultati. RAPIDS sfrutta NVIDIA CUDA® per accelerare i flussi di lavoro eseguendo l'intero flusso di training per la scienza dei dati sulle GPU. Questo riduce i tempi di training e la frequenza di distribuzione dei modelli da giorni a minuti.

Uso degli stessi strumenti

Uso degli stessi strumenti

Eliminando le complessità di lavorare con la GPU e i protocolli di comunicazione sottostanti dall'architettura del data center, RAPIDS crea un modo semplice per gestire la scienza dei dati. Poiché sempre più esperti di dati usano Python e altri linguaggi di alto livello, fornire l'accelerazione senza modificare il codice è essenziale per migliorare rapidamente i tempi di sviluppo.

Esegui ovunque su larga scala

Esegui ovunque su larga scala

RAPIDS può essere eseguito ovunque, su cloud o in sede. È possibile scalare facilmente da una workstation a server multi-GPU fino a cluster a più nodi, nonché distribuirlo in produzione con Dask, Spark, MLFlow e Kubernetes.

Prestazioni fulminee con i big data

I risultati dimostrano che le GPU offrono risparmi straordinari in termini di costi e tempi per problemi di analisi dei big data su piccola e larga scala. Utilizzando API familiari come Pandas e Dask, in ordini di grandezza fino a 10 terabyte, RAPIDS esegue prestazioni fino a 20 volte più veloci su GPU rispetto alle migliori CPU. Con 16 GPU NVIDIA DGX A100 garantiscono le stesse prestazioni server di 350 CPU, la soluzione NVIDIA è 7 volte più economica e garantisce al contempo prestazioni di livello HPC.

nvidia-16-dgx-a100-2c50-d

Accesso ai dati più veloce, meno movimento dei dati

Le attività di elaborazione dei dati comuni includono molti passaggi che Hadoop non può gestire in modo efficiente. Apache Spark ha risolto questo problema mantenendo tutti i dati nella memoria di sistema, il che consente flussi di dati più flessibili e complessi, ma introduce nuovi colli di bottiglia. L'analisi di centinaia di gigabyte (GB) di dati potrebbe richiedere ore se non giorni su cluster Spark con centinaia di nodi CPU. Per sfruttare il vero potenziale della scienza dei dati, le GPU devono essere al centro del design del data center e basarsi su questi cinque elementi: calcolo, networking, storage, distribuzione e software. In generale, i flussi di lavoro di scienza dei dati end-to-end su GPU sono 10 volte più veloci rispetto alle CPU.

LEGGI IL BLOG ›

Evoluzione dell'elaborazione dei dati

Accesso ai dati più veloce, meno movimento dei dati

RAPIDS ovunque

RAPIDS fornisce le basi per un nuovo ecosistema di scienza dei dati ad alte prestazioni e riduce gli ostacoli all'introduzione di nuove librerie grazie all'interoperabilità. L'integrazione con i principali framework di scienza dei dati come Apache Spark, cuPY, Dask, XGBoost e Numba, nonché numerosi framework di deep learning, come PyTorch, TensorFlow e Apache MxNet, favoriscono l'adozione e incoraggiano l'integrazione.

  • Progetti in primo piano
  • Contributi
  • Utilizzi
  • Open-source
blazingsql-logo

BlazingSQL è un motore SQL distribuito ad alte prestazioni in Python, basato su RAPIDS per gestire set di dati di grandi dimensioni ETL su GPU.

nvtabular-logo

Basato su RAPIDS, NVTabular accelera la progettazione e la pre-elaborazione di funzionalità per i sistemi recommender sulle GPU.

custreamz-logo

Basato su Streamz, scritto in Python e costruito su RAPIDS, cuStreamz accelera l'elaborazione dei dati in streaming su GPU.

plotly-dash-logo

Integrato con RAPIDS, Plotly Dash consente l'analisi visiva interattiva e in tempo reale di set di dati multi-gigabyte anche su una singola GPU.

apache-spark-logo

L'acceleratore RAPIDS per Apache Spark fornisce una serie di plug-in per Apache Spark che sfruttano le GPU per accelerare l'elaborazione tramite RAPIDS e il software UCX.

anaconda-logo
Blazing SQL
capital-one-logo
cupy-logo
chainer-logo
deepwave-digital-logo
gunrock-logo
quansight-logo
walmart-logo
booz-allen-hamilton-logo
capital-one-logo
databricks-logo
graphistry-logo
h2oai-logo
ibm-logo
iguazio-logo
inria-logo
kinetica-logo
mapr-logo
omnisci-logo
preferred-networks-logo
pytorch-logo
uber-logo
ursa-labs-logo
walmart-logo
apache-arrow-logo
Blazing SQL
cupy-logo
dask-logo
gpu-open-analytics-initiative-goai-logo
nuclio-logo
numba-logo
scikit-learn-logo
dmlc-xgboost-logo

La tecnologia al centro

RAPIDS si basa sulle primitive CUDA per l'ottimizzazione del calcolo di basso livello, ma espone il parallelismo delle GPU e la larghezza di banda della memoria elevata tramite interfacce Python di facile uso. RAPIDS supporta i flussi di lavoro di scienza dei dati end-to-end, dal caricamento dei dati e la pre-elaborazione, al machine learning, all'analisi dei grafici e alla visualizzazione. Si tratta di uno stack Python completamente funzionante scalabile per i casi d'uso aziendali con big data.

Caricamento e pre-elaborazione dei dati

Caricamento e pre-elaborazione dei dati

Le funzionalità di caricamento, pre-elaborazione e ETL di RAPIDS si basano su Apache Arrow per caricare, unire, aggregare, filtrare e manipolare i dati in un'API simile a Pandas, che gli esperti di dati già conoscono. Gli utenti possono aspettarsi velocità standard 10 volte superiori.

Machine learning

Machine learning

Gli algoritmi di machine learning di RAPIDS e le primitive matematiche seguono un'API familiare di tipo scikit-learn. Strumenti popolari come XGBoost, Random Forest e molti altri sono supportati sia per le implementazioni con singola GPU sia per i data center di grandi dimensioni. Per i set di dati di grandi dimensioni, queste implementazioni basate su GPU possono essere completate 10-50 volte più velocemente rispetto alle equivalenti con CPU.

Analisi di grafici

Analisi di grafici

Gli algoritmi grafici di RAPIDS come PageRank e le funzioni come NetworkX fanno un uso efficiente del parallelismo massiccio delle GPU per accelerare l'analisi di grafici di grandi dimensioni di oltre 1000 volte. Esplora fino a 200 milioni di bordi su una singola GPU NVIDIA A100 Tensor Core e scala fino a miliardi di bordi su cluster NVIDIA DGX A100.

Visualizzazione

Visualizzazione

Le funzionalità di visualizzazione di RAPIDS supportano il filtraggio incrociato accelerato da GPU. Ispirato alla versione JavaScript dell'originale, consente il filtraggio multidimensionale interattivo e super veloce di oltre 100 milioni di set di dati tabulari.

Dal machine learning al deep learning: tutto sulla GPU

Integrazione del deep learning

Sebbene il deep learning sia efficace in settori come la computer vision, l'elaborazione del linguaggio naturale e i sistemi recommender, ci sono aree in cui il suo utilizzo non è diffuso. Per i problemi dei dati tabulari, costituiti da colonne di variabili categoriche e continue, vengono comunemente impiegate tecniche come XGBoost, gradient boosting o modelli lineari. RAPIDS semplifica la pre-elaborazione dei dati tabulari sulle GPU e fornisce dati senza soluzione di continuità direttamente a qualsiasi framework che supporti DLPack, come PyTorch, TensorFlow e MxNet. Queste integrazioni aprono le porte a nuove opportunità per la creazione di flussi di lavoro avanzati, prima fuori portata, come l'alimentazione di nuove funzionalità create da framework di deep learning e riportate negli algoritmi di machine learning.

Data center moderni per la scienza dei dati

Ci sono cinque ingredienti chiave per creare data center ottimizzati per l'IA nell'impresa. La chiave del design consiste nel posizionare le GPU al centro.

Calcolo

Calcolo

Con le loro straordinarie prestazioni di calcolo, i sistemi con GPU NVIDIA rappresentano le fondamenta del computing per i data center IA. I sistemi NVIDIA DGX garantiscono prestazioni IA rivoluzionarie e possono sostituire, in media, 50 server CPU dual-socket. Questo è il primo passo per offrire agli esperti di dati gli strumenti più potenti del settore per l'esplorazione dei dati.

Software

Software

Eliminando le complessità di lavorare con la GPU e i protocolli di comunicazione sottostanti dall'architettura del data center, RAPIDS crea un modo semplice per gestire la scienza dei dati. Poiché sempre più esperti di dati usano Python e altri linguaggi di alto livello, fornire l'accelerazione senza modificare il codice è essenziale per migliorare rapidamente i tempi di sviluppo.

Networking

Networking

L'accesso diretto e remoto alla memoria (RDMA) con i controller di interfaccia di rete (NIC) NVIDIA Mellanox®, NCCL2 (libreria di comunicazione collettiva NVIDIA) e OpenUCX (framework di comunicazione open-source punto-punto) ha generato miglioramenti significativi nella velocità di training. Con l'RDMA che consente alle GPU di comunicare direttamente tra loro sui nodi con velocità fino a 100 gigabit al secondo (Gb/s), le GPU operano come su un server di grandi dimensioni.

Implementazione

Implementazione

Le aziende si spostano nei container Kubernetes e Docker per distribuire flussi scalabili. La combinazione di applicazioni containerizzate con Kubernetes consente alle aziende di modificare le priorità in base alle attività più importanti che aggiungono resilienza, affidabilità e scalabilità ai data center IA.

Spazio di archiviazione

Spazio di archiviazione

Lo storage GPUDirect® consente a NVMe e NVMe over Fabric (NVMe-oF) di leggere e scrivere i dati direttamente sulla GPU, superando la CPU e la memoria di sistema. Questo libera la memoria della CPU e di sistema da altre attività, garantendo a ciascuna GPU l'accesso a più dati con una larghezza di banda fino al 50% superiore.

Il nostro impegno per la scienza dei dati open-source

NVIDIA si impegna a semplificare, unificare e accelerare la scienza dei dati per la community open-source. Ottimizzando l'intero stack, dall'hardware al software, e rimuovendo i colli di bottiglia per la scienza dei dati iterativa, NVIDIA aiuta gli esperti di tutto il mondo a fare di più con meno risorse. Questo si traduce in più valore per le imprese generato dalle risorse più preziose: i dati e gli esperti. Con il software Apache 2,0 open-source, RAPIDS mette insieme un ecosistema sulle GPU.

Senza potenza di elaborazione, gli esperti di dati dovevano "abbattere" i loro algoritmi in modo da poterli eseguire più velocemente. Ora questo non serve più. Le GPU ci permettono di fare cose che non avremmo potuto fare prima.

- Bill Groves, Chief Data Officer, Walmart

I modelli globali della NASA producono terabyte di dati. Prima di RAPIDS, era necessario attendere sei o sette ore per ottenere i risultati. Accelerare il ciclo di training è stato una vera e propria rivoluzione per lo sviluppo dei modelli.

- Dr. John Keller, NASA Goddard Space Flight Center

Con un miglioramento di 100 volte nei tempi di training dei modelli e un risparmio del 98%, Capital One vede RAPIDS.ai e Dask come i prossimi grandi progressi per la scienza dei dati e il machine learning.

- Mike McCarty, Director of Software Engineering, Capital One Center for Machine Learning

Inizia subito