Accelera l'innovazione nel cloud

Diagnosticare il cancro. Prevedere gli uragani. Automatizzare le operazioni aziendali. Queste sono alcune delle innovazioni possibili quando si utilizza il calcolo accelerato per scoprire le informazioni nascoste in grandi volumi di dati. Amazon Web Services (AWS) e NVIDIA collaborano dal 2010 per fornire il cloud accelerato da GPU più potente e avanzato per aiutare i clienti a costruire un futuro più intelligente.

Potenzia le nuove capacità con AWS e NVIDIA

Settore sanitario

Accelera la ricerca farmacologica e l'analisi genomica utilizzando i microservizi NVIDIA BioNeMo™ e NIM™ su AWS HealthOmics. I ricercatori possono accedere a modelli IA ottimizzati per la previsione delle strutture proteiche e la chimica generativa, riducendo i tempi di acquisizione delle informazioni e consentendo flussi di lavoro di biologia convenienti e scalabili.

Servizi finanziari

Migliora il rilevamento delle frodi e la verifica dell'identità con NVIDIA AI Blueprint per il rilevamento delle frodi finanziarie su AWS per consentire alle istituzioni finanziarie di identificare schemi e anomalie sottili nei dati delle transazioni.

Settore automobilistico e produzione

Simula gemelli digitali industriali, processi e operazioni fisicamente accurati con NVIDIA Omniverse™ su AWS. Le case automobilistiche e le aziende di logistica, tra cui Amazon Robotics, simulano linee di produzione e robot mobili autonomi in ambienti virtuali per ottimizzare i flussi di lavoro prima della distribuzione fisica.

Pubblica amministrazione

Consenti alle agenzie di sfruttare l'IA e l'HPC su larga scala con il calcolo accelerato completo per supportare missioni come l'IA generativa, l'analisi dei dati su larga scala, le simulazioni fisiche e l'IA fisica. AWS European Sovereign Cloud, basato sulla piattaforma NVIDIA Blackwell, NVIDIA Run:ai e NVIDIA AI Enterprise, consente alle organizzazioni europee di distribuire applicazioni IA in modo sicuro.

Telecomunicazioni

Ottimizzare le operazioni di rete e l'esperienza dei clienti con la Telco AI Fellowship, una collaborazione con AWS e NVIDIA. Utilizza l'intelligenza artificiale per agenti per aumentare l'efficienza operativa e nuovi flussi di entrate attraverso voce, video e dati.

Media e intrattenimento

Semplifica la creazione di contenuti con workstation virtuali basate su cloud utilizzando NVIDIA RTX™ su AWS. Le pipeline di produzione accelerate dall'IA forniscono contenuti di alta qualità più velocemente, l'analisi dei dati fornisce informazioni più approfondite, la distribuzione e la monetizzazione sono ottimizzate e l'infrastruttura definita dal software sta migliorando l'intrattenimento dal vivo.

Energia

Accelera l'esplorazione e la produzione del sottosuolo, ottimizza le apparecchiature e le operazioni sul campo, aumenta l'affidabilità e la resilienza della rete e promuovi la generazione di energia rinnovabile.

Esplora le storie di successo

Perplexity: gestire oltre 800 milioni di query di utenti al mese con l'IA

Perplexity ha creato pplx-api utilizzando le GPU NVIDIA A100 Tensor Core su AWS e NVIDIA TensorRT™-LLM, raggiungendo una latenza fino a 3,1 volte inferiore e una latenza del primo token fino a 4,3 volte inferiore rispetto ad altre piattaforme. La startup ha ridotto i costi di inferenza di 4 volte, risparmiando 600.000 dollari all'anno, scalando con centinaia di GPU, con le GPU NVIDIA H100 che offrono una latenza inferiore del 50% e un throughput superiore del 200% rispetto alle A100.

Noetik: potenziare le terapie di precisione contro il cancro con il machine learning

Noetik, membro del programma NVIDIA Inception, utilizza le GPU NVIDIA Hopper™ Tensor Core su AWS SageMaker HyperPod per addestrare modelli fondamentali multimodali per l'immunoterapia di precisione contro il cancro. Ciò consente l'elaborazione di 1 petabyte di dati tumorali umani, profilando oltre 200 milioni di cellule, per accelerare la ricerca terapeutica e fornire trattamenti su misura per i singoli pazienti.

Fireworks.ai: inferenza IA generativa per sviluppatori

Fireworks.ai ha creato una soluzione di inferenza di IA generativa ultraveloce e ottimizzata per i costi utilizzando istanze Amazon EC2 P5 basate su GPU NVIDIA H100 Tensor Core. La piattaforma offre un throughput per istanza 4 volte superiore rispetto alle soluzioni open source, riduce la latenza fino al 50% e riduce i costi generali di 4 volte per alcuni clienti. Gli sviluppatori possono eseguire, ottimizzare e personalizzare i modelli di base, tra cui Llama 2, Stable Diffusion XL e StarCoder, soddisfacendo gli standard di conformità HIPAA e SOC2 Tipo II.

A-Alpha Bio: scoperta di farmaci accelerata dall'IA

A-Alpha Bio ha accelerato la ricerca farmacologica distribuendo NVIDIA BioNeMo™ su AWS, raggiungendo un'inferenza 12 volte più veloce ed elaborando 108 milioni di previsioni di legame proteico, 10 volte più di quanto inizialmente pianificato. Utilizzando istanze Amazon EC2 P5 basate su GPU NVIDIA H100 Tensor Core, la startup di biotecnologia ha ridotto i cicli sperimentali di 1–2 iterazioni, riducendo i costi e scoprendo candidati per anticorpi monoclonali superiori per le terapie.

Synthesia: produzione video potenziata dall'IA

Synthesia ha trasformato la produzione di video IA distribuendo istanze Amazon EC2 basate su GPU NVIDIA, ottenendo un miglioramento di 30 volte del throughput di addestramento dei modelli ML. Utilizzando istanze Amazon EC2 P5 con GPU NVIDIA H100 Tensor Core e istanze P4 con GPU NVIDIA A100, la startup di IA ha ridotto i tempi di addestramento per i modelli vocali da giorni a ore, supportando una crescita degli utenti del 456%.

Innophore: migliorare velocità, accuratezza e scalabilità nella ricerca farmacologica

Innophore accelera la ricerca farmacologica utilizzando NVIDIA BioNeMo per analizzare le strutture proteiche con la sua tecnologia Catalophore. La piattaforma ha completato la mappatura delle strutture proteiche dell'intero organismo umano in due settimane, un'attività che prima richiedeva oltre un anno. Ciò migliora l'accuratezza nel prevedere gli effetti dei farmaci fuori bersaglio del 30% nei risultati migliori della classifica.

Infrastruttura accelerata NVIDIA, dal cloud all'edge, su AWS

Amazon Elastic Cloud Compute (EC2)

Accedi a una vasta gamma di istanze accelerate da GPU NVIDIA su Amazon EC2 su richiesta per soddisfare i diversi requisiti di calcolo di IA, machine learning, analisi dei dati, grafica, cloud gaming, desktop virtuali e applicazioni HPC. A partire da istanze con singola GPU fino a migliaia di GPU in EC2 UltraClusters, i clienti AWS possono eseguire il provisioning della GPU delle giuste dimensioni per accelerare i tempi di soluzione e ridurre i costi totali di esecuzione dei carichi di lavoro cloud.

Amazon EC2 P6e con NVIDIA GB300 NVL72

Gli Amazon EC2 P6e UltraServers, basati su sistemi NVIDIA GB300 NVL72, offrono prestazioni IA rivoluzionarie. P6e-GB300 fornisce 1,5 volte la memoria GPU e la potenza di calcolo per i modelli di frontiera, il che lo rende ideale per l'addestramento dei modelli di ragionamento, tra cui architetture mixture-of-experts (MoE), e per l'inferenza di copiloti aziendali e applicazioni di IA per agenti.

Amazon EC2 P6 con NVIDIA B300

Le istanze Amazon EC2 P6, basate sulla piattaforma NVIDIA Blackwell, offrono miglioramenti delle prestazioni fino a 2 volte per l'addestramento e l'inferenza IA. P6-B300 fornisce memoria GPU e calcolo 1,5 volte rispetto a P6-B200, ideale per l'addestramento distribuito su larga scala. Ideale per modelli MoE su media-larga scala e applicazioni di IA per agenti.

Amazon EC2 G7e con NVIDIA RTX PRO 6000 Blackwell Server Edition

Le istanze Amazon EC2 G7e con GPU NVIDIA RTX PRO 6000 Blackwell Server Edition sono disponibili per promuovere i carichi di lavoro di inferenza IA, calcolo scientifico e calcolo spaziale. Le istanze G7e offrono prestazioni di inferenza fino a 2,3 volte rispetto a G6e con una larghezza di banda di memoria GPU 1,85 volte. Basate sul sistema AWS Nitro per ottimizzare la gestione delle risorse di calcolo e memoria, le istanze G7e proteggono i carichi di lavoro e i dati IA sensibili.

Integrazione AWS con NVLink Fusion

AWS supporterà NVIDIA NVLink™ Fusion, una piattaforma per l'infrastruttura IA personalizzata, consentendo la distribuzione del proprio silicio progettato su misura, tra cui chip Trainium4 (nota: acronimo non tradotto) per l'inferenza e l'addestramento dei modelli di IA per agenti, CPU Graviton per una vasta gamma di carichi di lavoro e l'infrastruttura di virtualizzazione Nitro System.

IA fisica AWS e NVIDIA

AWS e NVIDIA stanno approfondendo la loro collaborazione per accelerare l'IA fisica, che consente alle macchine autonome come robot e auto a guida autonoma di percepire, comprendere, ragionare ed eseguire azioni complesse nel mondo reale e fisico. Combinando l'infrastruttura cloud scalabile di AWS con la soluzione completa di NVIDIA, gli sviluppatori possono addestrare, simulare e distribuire l'IA fisica in modo più efficiente.

Addestrare sui modelli NVIDIA Cosmos World Foundation

Disponibili come microservizi NVIDIA NIM su Amazon EKS e AWS Batch, i modelli di base del mondo™ (WFM) NVIDIA Cosmos™ aiutano gli sviluppatori a creare applicazioni di IA fisica che comprendono le interazioni fisiche complesse. Questi modelli simulano la fisica e gli scenari del mondo reale, consentendo ai robot di ragionare sui propri ambienti. Sono fondamentali per l'addestramento di modelli di base per uso generale per robot umanoidi, come NVIDIA GR00T, sull'infrastruttura AWS.

Simulare utilizzando NVIDIA Isaac Lab e Isaac Sim

I framework aperti NVIDIA Isaac™ Lab e Isaac Sim™ sono ora disponibili sulle istanze Amazon EC2 G6e, offrendo ai team un modo scalabile per eseguire l'apprendimento e la simulazione dei robot nel cloud. Gli sviluppatori possono addestrare le politiche in Isaac Lab e convalidare il comportamento in Isaac Sim utilizzando ambienti virtuali fisicamente accurati e la generazione di dati sintetici prima di distribuirle nei robot reali. Il flusso di lavoro può connettersi con AWS per accelerare l'addestramento dei modelli di percezione e l'apprendimento per rinforzo su larga scala.

Distribuisci su NVIDIA Jetson Thor

I moduli della serie NVIDIA Jetson Thor™ forniscono la piattaforma definitiva per l'IA fisica e la robotica, offrendo fino a 2070 FP4 TFLOPS di calcolo IA e 128 GB di memoria. Il supercomputer di robotica basato su NVIDIA Blackwell consente carichi di lavoro chiave nella robotica umanoide, nell'intelligenza spaziale, nell'elaborazione multi-sensore e nell'IA per agenti.

Semplifica lo sviluppo e massimizza le prestazioni con il software ottimizzato NVIDIA

Software ottimizzato da NVIDIA su AWS

Accedi alla potenza di calcolo delle istanze accelerate da GPU NVIDIA su AWS per sviluppare e distribuire le tue applicazioni su larga scala con meno risorse di calcolo, accelerando i tempi di soluzione e riducendo il Total Cost of Ownership (TCO). Per massimizzare le prestazioni e la produttività degli sviluppatori, NVIDIA offre una vasta gamma di software ottimizzato da GPU per una vasta gamma di carichi di lavoro, tra cui scienza dei dati, analisi dei dati, addestramento IA e apprendimento automatico, inferenza IA e apprendimento automatico, HPC e grafica.

NVIDIA Nemotron Nano 3 su Amazon Bedrock

Amazon Bedrock ora supporta il modello NVIDIA Nemotron™ 3 Nano 30B A3B, l'ultima innovazione di NVIDIA nella modellazione linguistica efficiente che offre prestazioni di ragionamento elevate, supporto nativo per le chiamate agli strumenti ed elaborazione del contesto estesa con una finestra di contesto da 256k token. Questo modello utilizza un'architettura MoE ibrida efficiente per garantire un throughput più elevato rispetto ai suoi predecessori per i carichi di lavoro per agenti e di codifica, mantenendo la profondità di ragionamento di un modello più grande.

NVIDIA AI Enterprise su AWS Marketplace

NVIDIA AI Enterprise è una suite di software IA sicura, completa e nativa per il cloud. Accelera le pipeline di scienza dei dati e semplifica lo sviluppo, la distribuzione e la gestione di modelli di IA predittiva per automatizzare i processi essenziali e fornire informazioni rapide dai dati. NVIDIA AI Enterprise include una vasta libreria di software full-stack, tra cui flussi di lavoro NVIDIA AI, framework, modelli pre-addestrati e ottimizzazione dell'infrastruttura. Il supporto aziendale globale e le regolari revisioni della sicurezza assicurano la continuità aziendale e il monitoraggio dei progetti IA.

NVIDIA Run:ai su AWS Marketplace

NVIDIA Run:ai semplifica la gestione dell'infrastruttura IA per le organizzazioni fornendo un piano di controllo per l'infrastruttura GPU in ambienti nativi di Kubernetes. La piattaforma affronta l'utilizzo delle GPU, la definizione delle priorità del carico di lavoro e la visibilità del consumo delle GPU introducendo un pool di GPU virtuale e consentendo una pianificazione dinamica basata su politiche. NVIDIA Run:ai si integra con vari servizi AWS, tra cui Amazon EC2, EKS, SageMaker HyperPod, IAM e CloudWatch, per ottimizzare le prestazioni, semplificare le operazioni e fornire una base unificata per i carichi di lavoro IA/ML.

Servizi AWS accelerati da NVIDIA

NVIDIA e AWS collaborano strettamente sulle integrazioni per portare la potenza del calcolo accelerato da NVIDIA in una vasta gamma di servizi AWS. Sia che tu stesso effettui il provisioning e gestisca le istanze accelerate da GPU NVIDIA su AWS o che le sfrutti in servizi gestiti come Amazon SageMaker o Amazon Elastic Kubernetes Service (EKS), hai la flessibilità di scegliere il livello ottimale di astrazione di cui hai bisogno.

Amazon EMR

Sfrutta NVIDIA RAPIDS™ Accelerator per Apache Spark all'interno di Amazon EMR per accelerare le pipeline di scienza dei dati Apache Spark 3.x senza alcuna modifica del codice su istanze AWS accelerate da GPU NVIDIA. Questa integrazione consente ai data scientist di eseguire pipeline di estrazione, trasformazione e carico (ETL), elaborazione dei dati e machine learning su larga scala e con costi cloud inferiori, facendo di più in meno tempo e con meno istanze basate su cloud.

Amazon SageMaker AI

Il software NVIDIA AI e le istanze accelerate da GPU possono accelerare ogni fase dei flussi di lavoro di IA e di machine learning all'interno di Amazon Sagemaker, tra cui la preparazione dei dati, l'addestramento dei modelli e la distribuzione di inferenza. Per distribuire i modelli IA in produzione più rapidamente e con costi di inferenza ridotti, Amazon SageMaker ha integrato NVIDIA Triton Inference Server™, consentendo funzionalità come il supporto multi-framework, il batch dinamico e l'esecuzione dei modelli concorrenti che massimizzano le prestazioni su istanze CPU e GPU su AWS.

Amazon Bedrock con Mantle

Amazon Bedrock consente alle aziende e alle startup di creare applicazioni di IA per agenti su scala di produzione. La piattaforma include modelli NVIDIA Nemotron disponibili direttamente nel catalogo dei modelli Amazon Bedrock, microservizi NVIDIA NIM su Amazon Bedrock Marketplace e SageMaker Jumpstart, NVIDIA NeMo Agent Toolkit integrato con Amazon Bedrock AgentCore per servizi componibili e basati su agenti e inferenza vettoriale serverless accelerata da GPU.

Risorse per sviluppatori e guide rapide

Programma per sviluppatori NVIDIA

Accedi a uno spazio online dedicato alle tue esigenze, con strumenti software avanzati, documentazione tecnica, risorse di apprendimento e aiuto di colleghi e esperti di settore per accelerare il tuo lavoro nell'IA.

NVIDIA Deep Learning Institute (DLI)

Sviluppa e padroneggia le competenze necessarie per migliorare le tue conoscenze nell'IA, nel calcolo accelerato, nella scienza dei dati, nella grafica, nella simulazione e molto altro ancora con corsi pratici e formazione guidata da esperti.

NVIDIA Inception per startup

Partecipa a questo programma gratuito progettato per aiutare le startup di IA a evolversi più rapidamente con la tecnologia avanzata, le opportunità di entrare in contatto con gli investitori e l'accesso agli ultimi strumenti per sviluppatori e alle risorse tecniche di NVIDIA.

Accedi alla potenza di AWS e NVIDIA

Istanze Amazon EC2

NVIDIA AI Enterprise

Modelli NVIDIA Nemotron su AWS