Accélérer l'innovation dans le Cloud

Diagnostic du cancer. Prévision des catastrophes naturelles. Automatisation des opérations commerciales. Voici quelques-unes des avancées possibles lorsque vous utilisez le calcul accéléré pour dévoiler les informations cachées dans de vastes volumes de données. Amazon Web Services (AWS) et NVIDIA collaborent depuis 2010 pour fournir le Cloud accéléré par GPU le plus puissant et le plus avancé afin d'aider les clients à construire un avenir plus intelligent.

Annoncées lors de la GTC 2026, plusieurs nouvelles collaborations, allant du traitement des données optimisé par NVIDIA sur AWS à la gamme de modèles NVIDIA Nemotron™, continuent d'apporter des innovations complètes. Lire les annonces ici.

Alimentez de nouvelles capacités avec AWS et NVIDIA

Médecine et Santé

Accélérez la découverte de médicaments et l'analyse génomique à l'aide des microservices NVIDIA BioNeMo™ et NIM™ sur AWS HealthOmics. Les chercheurs peuvent accéder à des modèles d'IA optimisés pour la prédiction de la structure des protéines et la chimie générative, ce qui réduit les délais d'obtention des informations et permet des workflows biologiques rentables et évolutifs.

Services financiers

Améliorez la détection des fraudes et la vérification d'identité avec le NVIDIA AI Blueprint pour la détection des fraudes financières sur AWS, permettant aux institutions financières d'identifier les schémas subtils et les anomalies dans les données des transactions.

Automobile et fabrication industrielle

Simulez des jumeaux numériques industriels, des processus et des opérations physiquement précis avec NVIDIA Omniverse™ sur AWS. Les constructeurs automobiles et les entreprises logistiques, notamment Amazon Robotics, simulent des lignes de production et des robots mobiles autonomes dans des environnements virtuels pour optimiser les workflows avant le déploiement physique.

Secteur public

Permettre aux agences d'exploiter l'IA et le HPC à grande échelle avec un calcul accéléré complet pour prendre en charge des missions telles que l'IA générative, l'analyse de données à grande échelle, les simulations physiques et l'IA physique. AWS European Sovereign Cloud, basé sur la plateforme NVIDIA Blackwell, NVIDIA Run:ai et NVIDIA AI Enterprise, permet aux entreprises européennes de déployer des applications d'IA en toute sécurité.

Télécommunications

Optimiser les opérations réseau et les expériences client avec le Telco AI Fellowship, une collaboration avec AWS et NVIDIA. Utilisez l'IA agentique pour stimuler l'efficacité opérationnelle et générer de nouveaux flux de revenus grâce à la voix, à la vidéo et aux données.

Multimédia et Divertissement

Rationalisez la création de contenu avec des stations de travail virtuelles basées sur le Cloud à l'aide de NVIDIA RTX™ sur AWS. Les pipelines de production accélérés par l'IA fournissent plus rapidement du contenu de haute qualité, l'analyse des données fournit des informations plus approfondies, la distribution et la monétisation sont optimisées et l'infrastructure définie par logiciel améliore le divertissement en direct.

Énergie

Accélérez l'exploration et la production souterraines, optimisez les équipements et les opérations sur le terrain, augmentez la fiabilité et la résilience du réseau et stimulez la génération d'énergie renouvelable.

Consulter des études de cas

Perplexity : traiter plus de 800 millions de requêtes d'utilisateurs par mois avec l'IA

Perplexity a créé pplx-api à l'aide de GPU NVIDIA A100 Tensor Core sur AWS et NVIDIA TensorRT™-LLM, permettant d'atteindre une latence jusqu'à 3,1 fois inférieure et une latence du premier jeton 4,3 fois inférieure par rapport à d'autres plateformes. La startup a réduit les coûts d'inférence par 4, soit une économie annuelle de 600 000 dollars, tout en passant à des centaines de GPU, avec les GPU NVIDIA H100 offrant une latence inférieure de 50 % et un débit supérieur de 200 % à celui des A100.

Noetik : favoriser les thérapies de précision contre le cancer avec l'apprentissage automatique

Noetik, membre du programme NVIDIA Inception, utilise des GPU NVIDIA Hopper™ Tensor Core sur AWS SageMaker HyperPod pour entraîner des modèles de fondation multimodaux pour l'immunothérapie de précision contre le cancer. Cela permet le traitement d'1 pétaoctet de données tumorales humaines, le profilage de plus de 200 millions de cellules, pour accélérer la découverte thérapeutique et débloquer des traitements adaptés à chaque patient.

Fireworks.ai : inférence d'IA générative pour les développeurs

Fireworks.ai a créé une solution d'inférence d'IA générative ultra-rapide et optimisée à l'aide d'instances Amazon EC2 P5 alimentées par des GPU NVIDIA H100 Tensor Core. Cette plateforme offre un débit par instance 4 fois supérieur à celui des solutions open source, réduit la latence jusqu'à 50 % et réduit les coûts globaux par 4 pour certains clients. Les développeurs peuvent exécuter, affiner et personnaliser des modèles fondamentaux, notamment Llama 2, Stable Diffusion XL et StarCoder, tout en répondant aux normes de conformité HIPAA et SOC2 Type II.

A-Alpha Bio : découverte de médicaments accélérée par l'IA

A-Alpha Bio a accéléré la découverte de médicaments en déployant NVIDIA BioNeMo™ sur AWS, en réalisant une inférence 12 fois plus rapide et en traitant 108 millions de prévisions de liaison aux protéines, soit 10 fois plus que ce qui était initialement prévu. À l'aide d'instances Amazon EC2 P5 alimentées par des GPU NVIDIA H100 Tensor Core, cette startup biotech a réduit les cycles expérimentaux de 1 à 2 itérations, réduisant ainsi les coûts tout en découvrant des anticorps monoclonaux candidats supérieurs pour les produits thérapeutiques.

Synthesia : production vidéo améliorée par l'IA

Synthesia a transformé la production vidéo d'IA en déployant des instances Amazon EC2 basées sur des GPU NVIDIA, permettant d'améliorer par 30 fois le débit d'entraînement des modèles ML. À l'aide d'instances Amazon EC2 P5 avec des GPU NVIDIA H100 Tensor Core et d'instances P4 avec des GPU NVIDIA A100, cette startup d'IA a réduit la durée d'entraînement pour les modèles vocaux de plusieurs jours à quelques heures, tout en prenant en charge une croissance d'utilisateurs de 456 %.

Innophore : faire progresser la vitesse, la précision et l'échelle dans la découverte de médicaments

Innophore accélère la découverte de médicaments à l'aide de NVIDIA BioNeMo pour analyser les structures protéiques avec sa technologie Catalophore. La plateforme a terminé la cartographie des structures protéiques de l'ensemble de l'organisme humain en deux semaines, une tâche qui prenait auparavant plus d'un an. Cela améliore la précision dans la prévision des effets hors cible des médicaments de 30 % dans les résultats les mieux classés.

Infrastructure accélérée NVIDIA, du Cloud à l'Edge, sur AWS

Amazon EC2 (Elastic Cloud Compute)

Accédez à une large gamme d'instances accélérées par GPU NVIDIA sur Amazon EC2 à la demande pour répondre aux diverses exigences de calcul de l'IA, de l'apprentissage automatique, de l'analyse de données, des graphismes, du Cloud Gaming, des bureaux virtuels et du HPC. À partir d'instances GPU mono jusqu'à des milliers de GPU dans EC2 UltraClusters, les clients AWS peuvent fournir le GPU de taille appropriée pour accélérer la résolution et réduire les coûts totaux liés à l'exécution de leurs charges de travail Cloud.

Amazon EC2 P6e avec NVIDIA GB300 NVL72

Les Amazon EC2 P6e UltraServers, alimentés par les systèmes NVIDIA GB300 NVL72, offrent des performances d'IA révolutionnaires. Le P6e-GB300 fournit 1,5 fois plus de mémoire GPU et de calcul pour les modèles de pointe, ce qui le rend idéal pour l'entraînement de modèles de raisonnement, y compris les architectures mixture-of-experts (MoE), et pour l'inférence de copilotes d'entreprise et d'applications d'IA agentique.

Amazon EC2 P6 avec NVIDIA B300

Les instances Amazon EC2 P6, basées sur la plateforme NVIDIA Blackwell, offrent des performances jusqu'à 2 fois supérieures pour l'entraînement et l'inférence de l'IA. Le P6-B300 fournit 1,5 fois plus de mémoire GPU et de calcul que le P6-B200, idéal pour l'entraînement distribué à grande échelle. Parfait pour les modèles MoE à moyenne et grande échelle et les applications d'IA agentique.

Amazon EC2 G7e avec NVIDIA RTX PRO 6000 Blackwell Server Edition

Les instances Amazon EC2 G7e avec des GPU NVIDIA RTX PRO 6000 Blackwell Server Edition sont disponibles pour faire progresser les charges de travail d'inférence d'IA, de calcul scientifique et de calcul spatial. Les instances G7e offrent des performances d'inférence jusqu'à 2,3 fois supérieures à celles de G6e avec une bande passante mémoire GPU 1,85 fois. Basées sur le système AWS Nitro pour optimiser la gestion des ressources de calcul et de mémoire, les instances G7e sécurisent les charges de travail et les données d'IA sensibles.

Intégration AWS avec NVLink Fusion

AWS prendra en charge NVIDIA NVLink™ Fusion, une plateforme pour une infrastructure d'IA personnalisée, permettant le déploiement de son silicium conçu sur mesure, notamment les puces Trainium4 pour l'inférence et l'entraînement des modèles d'IA autonomes, les CPU Graviton pour une large gamme de charges de travail et l'infrastructure de virtualisation Nitro System.

AWS et NVIDIA IA physique

AWS et NVIDIA approfondissent leur collaboration pour accélérer l'IA physique, qui permet aux machines autonomes telles que les robots et les voitures autonomes de percevoir, de comprendre, de raisonner et d'effectuer des actions complexes dans le monde physique réel. En combinant l'infrastructure Cloud évolutive d'AWS avec la solution complète de NVIDIA, les développeurs peuvent entraîner, simuler et déployer l'IA physique plus efficacement.

Entraînez-vous sur les modèles fondamentaux NVIDIA Cosmos World

Disponibles sous forme de microservices NVIDIA NIM sur Amazon EKS et AWS Batch, les modèles fondamentaux du monde NVIDIA Cosmos™ (WFMs) aident les développeurs à créer des applications d'IA physiques qui comprennent des interactions physiques complexes. Ces modèles simulent une physique et des scénarios réels, permettant aux robots d'élaborer une réflexion sur leur environnement. Ils sont essentiels pour l'entraînement de modèles de fondation généraux pour des robots humanoïdes, tels que NVIDIA GR00T, sur l'infrastructure AWS.

Simulez à l'aide de NVIDIA Isaac Lab et Isaac Sim

Les frameworks ouverts NVIDIA Isaac™ Lab et Isaac Sim™ sont désormais disponibles sur les instances Amazon EC2 G6e, offrant aux équipes un moyen évolutif d'exécuter l'apprentissage et la simulation dans le Cloud. Les développeurs peuvent entraîner des politiques dans Isaac Lab et valider les comportements dans Isaac Sim à l'aide d'environnements virtuels physiquement précis et de la génération de données synthétiques avant le déploiement sur des robots réels. Le workflow peut se connecter à AWS pour accélérer l'entraînement des modèles de perception et l'apprentissage par renforcement à grande échelle.

Déployer sur NVIDIA Jetson Thor

Les modules de la série NVIDIA Jetson Thor™ fournissent la plateforme ultime pour l'IA physique et la robotique, offrant jusqu'à 2 070 TFLOPS FP4 de calcul d'IA et 128 Go de mémoire. Le supercalculateur robotique basé sur NVIDIA Blackwell permet des charges de travail clés dans la robotique humanoïde, l'intelligence spatiale, le traitement multi-capteurs et l'IA agentique.

Simplifiez le développement et maximisez les performances avec des logiciels optimisés NVIDIA

Logiciels optimisés par NVIDIA sur AWS

Accédez à la puissance de calcul des instances accélérées par GPU NVIDIA sur AWS pour développer et déployer vos applications à grande échelle avec moins de ressources de calcul, accélérant le temps nécessaire pour trouver des solutions et réduisant le coût total de possession (TCO). Pour maximiser les performances et la productivité des développeurs, NVIDIA offre une large gamme de logiciels optimisés par GPU pour une large gamme de charges de travail, notamment Data Science, l'analyse des données, l'IA et la formation en apprentissage automatique, l'IA et l'inférence en apprentissage automatique, le HPC et les graphismes.

NVIDIA Nemotron Nano 3 sur Amazon Bedrock

Amazon Bedrock prend désormais en charge le modèle NVIDIA Nemotron™ 3 Nano 30B A3B, la dernière avancée de NVIDIA en matière de modélisation linguistique efficace qui offre des performances de raisonnement élevées, une prise en charge native de l'appel d'outils et un traitement contextuel étendu avec une fenêtre de 256k jetons. Ce modèle utilise une architecture MoE hybride efficace pour garantir un débit plus élevé que ses prédécesseurs pour les charges de travail agentiques et de codage tout en préservant la profondeur de raisonnement d'un modèle plus grand.

NVIDIA AI Enterprise sur AWS Marketplace

NVIDIA AI Enterprise est une suite logicielle d'IA de bout en bout sécurisée et pensée pour le Cloud. Elle accélère les pipelines de Data Science et rationalise le développement, le déploiement et la gestion de modèles d'IA prédictifs afin d'automatiser les processus essentiels et extraire rapidement des informations à partir des données. NVIDIA AI Enterprise inclut une vaste bibliothèque de logiciels complets, notamment des workflows d'IA NVIDIA, des frameworks, des modèles pré-entraînés et l'optimisation de l'infrastructure. Une assistance mondiale pour les entreprises et des bilans de sécurité réguliers assurent la continuité opérationnelle et la réussite des projets d'IA.

NVIDIA Run:ai sur AWS Marketplace

NVIDIA Run:ai simplifie la gestion de l'infrastructure d'IA pour les entreprises en fournissant un plan de contrôle pour l'infrastructure GPU dans les environnements natifs Kubernetes. Cette plateforme gère l'utilisation des GPU, la hiérarchisation des charges de travail et la visibilité sur la consommation des GPU en introduisant un pool de GPU virtuels et en permettant une planification dynamique basée sur des politiques. NVIDIA Run:ai s'intègre à divers services AWS, notamment Amazon EC2, EKS, SageMaker HyperPod, IAM et CloudWatch, pour optimiser les performances, simplifier les opérations et fournir une base unifiée pour les charges de travail d'IA/ML.

Services AWS accélérés par NVIDIA

NVIDIA et AWS collaborent étroitement sur des intégrations pour apporter la puissance du calcul accéléré par NVIDIA à une large gamme de services AWS. Que vous provisionniez et gériez vous-même les instances accélérées par GPU NVIDIA sur AWS ou que vous les tiriez dans des services gérés comme Amazon SageMaker ou Amazon Elastic Kubernetes Service (EKS), vous disposez de la flexibilité nécessaire pour choisir le niveau d'abstraction optimal dont vous avez besoin.

Amazon EMR

Exploitez l'accélérateur NVIDIA RAPIDS™ pour Apache Spark dans Amazon EMR pour accélérer les pipelines de Data Science Apache Spark 3.x sans aucune modification de code sur les instances AWS accélérées par GPU NVIDIA. Cette intégration permet aux data scientists d'exécuter des pipelines d'extraction, de transformation et de chargement (ETL), de traitement des données et d'apprentissage automatique à grande échelle et de réduire les coûts Cloud en faisant davantage en moins de temps, et avec moins d'instances basées sur le Cloud.

Amazon SageMaker AI

Les logiciels d'IA de NVIDIA et les instances accélérées par GPU peuvent accélérer chaque étape des workflows d'IA et d'apprentissage automatique dans Amazon Sagemaker, y compris la préparation des données, l'entraînement des modèles et la mise en production des inférences. Pour déployer des modèles d'IA en production plus rapidement et réduire les coûts d'inférence, Amazon SageMaker a intégré NVIDIA Triton Inference Server™, permettant des fonctionnalités telles que la prise en charge multi-frameworks, le batching dynamique et l'exécution simultanée de modèles qui maximisent les performances sur les instances CPU et GPU sur AWS.

Amazon Bedrock avec Mantle

Amazon Bedrock permet aux entreprises et aux startups de créer des applications d'IA agentique à l'échelle de la production. La plateforme inclut des modèles NVIDIA Nemotron disponibles directement dans le catalogue de modèles Amazon Bedrock, les microservices NVIDIA NIM sur l'Amazon Bedrock Marketplace et SageMaker Jumpstart, le kit d'outils NVIDIA NeMo Agent intégré à Amazon Bedrock AgentCore pour des services composables basés sur des agents et une inférence vectorielle sans serveur accélérée par GPU.

Ressources pour les développeurs et guides de démarrage rapide

Programme NVIDIA Développeurs

Accédez à un espace en ligne consacré à vos besoins, notamment des outils logiciels avancés, une documentation technique, des ressources d'apprentissage et une aide de pairs et d'experts pour accélérer votre travail en IA.

NVIDIA Deep Learning Institute (DLI)

Développez et maîtrisez les compétences nécessaires pour faire progresser vos connaissances dans les domaines de l'IA, du calcul accéléré, de la data science, de la simulation et bien plus encore avec des cours pratiques et des formations dispensées par des experts.

NVIDIA Inception pour les startups

Rejoignez ce programme gratuit conçu pour aider les startups d'IA à évoluer plus rapidement grâce à des technologies avancées, à des opportunités de nouer des liens avec des investisseurs et à accéder aux derniers outils de développement et aux ressources techniques de NVIDIA.

Accédez à la puissance d’AWS et des GPU NVIDIA

Instances Amazon EC2

NVIDIA AI Enterprise

Modèles NVIDIA Nemotron sur AWS