Beschleunigen Sie Innovationen in der Cloud

Krebs diagnostizieren. Vorhersage von Hurrikanen Automatisierung von Geschäftsabläufen. Dies sind einige der bahnbrechenden Fortschritte, die durch den Einsatz von beschleunigtem Computing möglich werden, um die in immensen Datenmengen enthaltenen Zusammenhänge sichtbar zu machen. Amazon Web Services (AWS) und NVIDIA stellen im Rahmen ihrer Zusammenarbeit seit 2010 gemeinsam eine GPU-beschleunigte Cloud bereit, die zu den leistungsstärksten und fortschrittlichsten zählt, um Kunden bei der Entwicklung einer intelligenteren Zukunft zu unterstützen.

Wie auf der GTC 2026 angekündigt, sorgen mehrere neue Kooperationen, die von der NVIDIA-gestützten Datenverarbeitung auf AWS bis hin zur NVIDIA Nemotron-Familie reichen, weiterhin für Innovationen auf allen Ebenen. Lesen Sie hier die Ankündigungen.

Neue Möglichkeiten mit AWS und NVIDIA nutzen

Medizin und Gesundheitswesen

Beschleunigte Medikamentenentwicklung und Genomanalyse mit NVIDIA BioNeMo™ und NIM™-Microservices auf AWS HealthOmics. Für die Vorhersage von Proteinstrukturen und die generative Chemie können Forscher optimierte KI-Modelle nutzen und so schneller Erkenntnisse zu gewinnen und kosteneffiziente, skalierbare biologische Arbeitsabläufe zu ermöglichen.

Finanzdienstleistungen

Mit dem NVIDIA AI Blueprint zur Erkennung von Finanzbetrug auf AWS können Finanzinstitute die Betrugserkennung und Identitätsprüfung verbessern, um subtile Muster und Anomalien in Transaktionsdaten zu identifizieren.

Automobilindustrie und Fertigung

Simulieren Sie physikalisch genaue industrielle digitale Zwillinge, Prozesse und Betriebsabläufe mit NVIDIA Omniverse™ auf AWS. Automobilhersteller und Logistikunternehmen, darunter Amazon Robotics, simulieren Produktionslinien und autonome mobile Roboter in virtuellen Umgebungen, mit dem -Ziel, Workflows vor der physischen Bereitstellung zu optimieren.

Öffentlicher Sektor

Behörden können umfassende KI und HPC mit Full-Stack-beschleunigtem Computing für Aufgaben wie generative KI, groß angelegte Datenanalyse, Physiksimulationen und physische KI nutzen. Die AWS European Sovereign Cloud, die von der NVIDIA Blackwell-Plattform, NVIDIA Run:ai und NVIDIA AI Enterprise unterstützt wird, ermöglicht europäischen Unternehmen die sichere Bereitstellung von KI-Anwendungen.

Telekommunikation

Optimieren Sie Netzwerkbetrieb und Kundenerlebnisse mit der Telco AI Fellowship, einer Zusammenarbeit mit AWS und NVIDIA. Nutzen Sie KI mit agentischen Eigenschaften, um die betriebliche Effizienz zu steigern und neue Ertragsquellen zu erschließen, insbesondere in den Bereichen Sprach-, Video- und Datenkommunikation.

Medien und Unterhaltung

Mit NVIDIA RTX™ auf AWS lässt sich die Erstellung von Content mit cloudbasierten virtuellen Workstations optimieren. KI-beschleunigte Produktionspipelines liefern Inhalte schneller und in höherer Qualität, Datenanalysen ermöglichen tiefere Einblicke, der Vertrieb und die Monetarisierung werden optimiert, und die softwaredefinierte Infrastruktur verbessert die Live-Unterhaltung.

Energie

Beschleunigen Sie die Suche und Förderung unter der Erdoberfläche, optimieren Sie Feldausrüstung und -betrieb, sorgen Sie für höhere Zuverlässigkeit und Ausfallsicherheit des Stromnetzes und fördern Sie die Erzeugung erneuerbarer Energien.

Erfolgsgeschichten entdecken

Perplexity: Bearbeitung von über 800 Millionen Benutzeranfragen pro Monat mit KI

Perplexity hat mit NVIDIA A100 Tensor Core-GPUs auf AWS und NVIDIA TensorRT™-LLM pplx-api entwickelt und erzielt bis zu 3,1-mal geringere Latenz und 4,3-mal geringere Latenz für den ersten Token im Vergleich zu anderen Plattformen. Das Startup senkte die Inferenzkosten um das Vierfache – Einsparungen von 600.000 US-Dollar pro Jahr – bei gleichzeitiger Skalierung auf Hunderte von GPUs, wobei NVIDIA H100-GPUs 50 % geringere Latenz und 200 % höheren Durchsatz als A100s bieten.

Noetik: Präzise Krebstherapien durch maschinelles Lernen

Noetik nutzt im Rahmen des NVIDIA Inception-Programms die NVIDIA Hopper™ Tensor Core-GPUs auf AWS SageMaker HyperPod, um multimodale Foundation-Modelle für die präzise Immuntherapie gegen Krebs zu trainieren. Dies ermöglicht die Verarbeitung von 1 Petabyte an menschlichen Tumordaten – das entspricht dem Profil von über 200 Millionen Zellen – um die Entdeckung neuer Therapien zu beschleunigen und auf einzelne Patienten zugeschnittene Behandlungen zu ermöglichen.

Fireworks.ai: Generative KI-Inferenz für Entwickler

Fireworks.ai hat eine extrem schnelle, kostenoptimierte generative KI-Inferenzlösung mit Amazon EC2 P5-Instanzen auf der Basis von NVIDIA H100 Tensor Core-GPUs entwickelt. Die Plattform bietet einen viermal höheren Durchsatz pro Instanz als Open-Source-Lösungen, senkt die Latenz um bis zu 50 % und kann die Gesamtkosten für Kunden um das Vierfache senken. Entwickler haben den Vorteil, Foundation-Modelle wie Llama 2, Stable Diffusion XL und StarCoder zu nutzen, zu optimieren und anzupassen und gleichzeitig die HIPAA- und SOC2 Typ-II-Compliance-Standards zu erfüllen.

A-Alpha Bio: KI-beschleunigte Medikamentenentwicklung

A-Alpha Bio konnte die Medikamentenentwicklung durch den Einsatz von NVIDIA BioNeMo™ auf AWS beschleunigen, eine 12-mal schnellere Inferenz erreichen und 108 Millionen Vorhersagen zur Proteinbindung verarbeiten – 10-mal mehr als ursprünglich geplant. Mithilfe von Amazon EC2 P5-Instanzen, die von NVIDIA H100 Tensor Core-GPUs unterstützt werden, konnte das Biotech-Startup experimentelle Zyklen um 1–2 Iterationen verkürzen und so Kosten senken und gleichzeitig überlegene monoklonale Antikörperkandidaten für Therapeutika entdecken.

Synthesia: KI-gestützte Videoproduktion

Synthesia transformierte die KI-Videoproduktion durch den Einsatz von NVIDIA-GPU-gestützten Amazon EC2-Instanzen und erzielte so eine 30-fache Verbesserung des Durchsatzes beim Training von ML-Modellen. Mithilfe von Amazon EC2 P5-Instanzen mit NVIDIA H100 Tensor Core-GPUs und P4-Instanzen mit NVIDIA A100-GPUs konnte das KI-Startup die Trainingszeit für Sprachmodelle von mehreren Tagen auf wenige Stunden reduzieren und so gleichzeitig eine Zunahme der Benutzerzahlen um 456 % verzeichnen.

Innophore: Mehr Geschwindigkeit, Genauigkeit und Skalierbarkeit in der Medikamentenentwicklung

Innophore beschleunigt die Arzneimittelforschung durch den Einsatz von NVIDIA BioNeMo zur Analyse von Proteinstrukturen mit der Catalophore-Technologie. Mit der Plattform war die Kartierung der Proteinstrukturen des gesamten menschlichen Organismus in zwei Wochen abgeschlossen – eine Aufgabe, die vorher über ein Jahr dauerte. Dies verbessert die Genauigkeit bei der Vorhersage von Off-Target-Wirkungen von Arzneimitteln um 30 % innerhalb der am höchsten bewerteten Treffer.

NVIDIA-beschleunigte Infrastruktur – von der Cloud bis zum Rand – auf AWS

Amazon Elastic Cloud Compute (EC2)

Nutzen Sie eine breite Palette von NVIDIA GPU-beschleunigten Instanzen auf Amazon EC2 nach Bedarf für vielfältige Rechenanforderungen von KI, maschinellem Lernen, Datenanalyse, Grafik, Cloud-Gaming, virtuellen Desktops und HPC-Anwendungen. Um die Lösungszeit zu verkürzen und die Gesamtkosten für die Ausführung ihrer Cloud-Workloads zu reduzieren, können AWS-Kunden die GPU von Instanzen mit einer einzelnen GPU bis hin zu Tausenden von GPUs in EC2 UltraClustern nach Bedarf skalieren.

Amazon EC2 P6e mit NVIDIA GB300 NVL72

Amazon EC2 P6e UltraServers, unterstützt von NVIDIA GB300 NVL72-Systemen, bieten bahnbrechende KI-Leistung. Ideal für das Training von Reasoning-Modellen und für die Inferenz von Unternehmens-Copiloten und agentischen KI-Anwendungen bietet P6e-GB300 1,5-fachen GPU-Speicher und Rechenleistung für Frontier-Modelle – wie z. B. Mixture-of-Experts (MoE)-Architekturen.

Amazon EC2 P6 mit NVIDIA B300

Amazon EC2 P6-Instanzen, die von der NVIDIA Blackwell Plattform unterstützt werden, bieten bis zu doppelte Leistungsverbesserungen für KI-Training und Inferenzen. P6-B300 liefert 1,5-fachen GPU-Speicher und Rechenleistung im Vergleich zu P6-B200, ideal für umfangreiches, verteiltes Training. Perfekt für mittelgroße bis große MoE-Modelle und agentische KI-Anwendungen.

Amazon EC2 G7e mit NVIDIA RTX PRO 6000 Blackwell Server Edition

Amazon EC2 G7e-Instanzen mit NVIDIA RTX PRO 6000 Blackwell Server Edition-GPUs ermöglichen KI-Inferenz, wissenschaftliche Datenverarbeitung und Spatial Computing. G7e-Instanzen liefern bis zu 2,3-fache Inferenzleistung im Vergleich zu G6e mit 1,85-facher GPU-Speicherbandbreite. G7e-Instanzen basieren auf dem AWS Nitro System zur Optimierung von Rechen- und Speicherressourcen. Sie sichern sensible KI-Workloads und Daten.

AWS-Integration mit NVLink Fusion

AWS bietet Unterstützung für NVIDIA NVLink™ Fusion – eine Plattform für benutzerdefinierte KI-Infrastrukturen –, die den Einsatz speziell entwickelter Siliziumchips ermöglicht, darunter Trainium4-Chips für Inferenz und agentenbasiertes KI-Modelltraining, Graviton-CPUs für eine Vielzahl von Workloads und die Virtualisierungsinfrastruktur Nitro System.

AWS und NVIDIA Physische KI

Mit dem Ziel, die physische KI zu beschleunigen, die es autonomen Maschinen wie Robotern und selbstfahrenden Autos ermöglicht, komplexe Handlungen in der realen, physischen Welt wahrzunehmen, zu verstehen, zu durchdenken und auszuführen, intensivieren AWS und NVIDIA ihre Zusammenarbeit. Durch die Kombination der skalierbaren Cloud-Infrastruktur von AWS mit der Full-Stack-Lösung von NVIDIA können Entwickler physische KI effizienter trainieren, simulieren und bereitstellen.

Training mit NVIDIA Cosmos World Foundation-Modellen

NVIDIA Cosmos™ World Foundation Models (WFMs) sind als NVIDIA NIM-Microservices auf Amazon EKS und AWS Batch verfügbar und helfen Entwicklern bei der Erarbeitung physischer KI-Anwendungen, die in der Lage sind, komplexe physische Interaktionen zu verstehen. Diese Modelle simulieren reale physikalische Vorgänge und Szenarien und ermöglichen es Robotern, ihre Umgebung zu analysieren. Sie sind für das Training von universellen Foundation-Modellen für humanoide Roboter, wie beispielsweise NVIDIA GR00T, auf der AWS-Infrastruktur von entscheidender Bedeutung.

Simulationen mit NVIDIA Isaac Lab und Isaac Sim

Die offenen NVIDIA Isaac™ Lab und Isaac Sim™ Frameworks sind jetzt auf Amazon EC2 G6e-Instanzen verfügbar und bieten Teams die Möglichkeit, Roboterlernen und Simulationen in der Cloud skalierbar auszuführen. Entwickler können Strategien in Isaac Lab trainieren und Verhalten in Isaac Sim mit physikalisch genauen virtuellen Umgebungen und der Generierung synthetischer Daten validieren, bevor diese auf reale Roboter übertragen werden. Der Workflow kann sich mit AWS verbinden, um das Training von Wahrnehmungsmodellen und bestärkendes Lernen in großem Maßstab zu beschleunigen.

Bereitstellen auf NVIDIA Jetson Thor

Module der NVIDIA Jetson Thor™ Serie liefern die ultimative Plattform für physische KI und Robotik mit bis zu 2070 FP4-TFLOPS KI-Rechenleistung und 128 GB Speicher. Der auf NVIDIA Blackwell basierende Robotik-Supercomputer ermöglicht wichtige Workloads in den Bereichen humanoide Robotik, räumliche Intelligenz, Multi-Sensor-Verarbeitung und agentische KI.

Vereinfachte Entwicklung und maximierte Leistung mit durch NVIDIA optimierte Software

Software optimiert durch NVIDIA auf AWS

Profitieren Sie von der Rechenleistung von NVIDIA GPU-beschleunigten Instanzen auf AWS, um Ihre Anwendungen mit weniger Rechenressourcen in großem Maßstab zu entwickeln und bereitzustellen, Lösungszeiten zu verkürzen und die Gesamtbetriebskosten zu senken. Für die maximierte Leistung und Produktivität von Entwicklern bietet NVIDIA eine breite Palette an GPU-optimierter Software für eine Vielzahl von Workloads, darunter Datenwissenschaften, Datenanalyse, Training für KI und maschinelles Lernen, Inferenz für KI und maschinelles Lernen, HPC und Grafikanwendungen.

NVIDIA Nemotron Nano 3 auf Amazon Bedrock

Amazon Bedrock unterstützt jetzt das NVIDIA Nemotron™ 3 Nano 30B A3B-Modell, die neueste Innovation von NVIDIA in der effizienten Sprachmodellierung, der eine hohe Reasoning-Leistung, native Unterstützung für Tool-Aufrufe und erweiterte Kontextverarbeitung mit einem 256-K-Token-Kontextfenster bietet. Dieses Modell nutzt eine effiziente hybride MoE-Architektur, die einen höheren Durchsatz als die Vorgänger für agentische und Codierungs-Workloads gewährleistet und gleichzeitig die Reasoning-Tiefe größerer Modelle beibehält.

NVIDIA AI Enterprise auf AWS Marketplace

NVIDIA AI Enterprise ist eine sichere, Cloud-native End-to-End-Suite von KI-Software. Es beschleunigt Datenwissenschafts-Pipelines und optimiert die Entwicklung, Bereitstellung und Verwaltung von prädiktiven KI-Modellen, um zentrale Prozesse zu automatisieren und schnelle Erkenntnisse aus Daten zu liefern. NVIDIA AI Enterprise umfasst eine umfangreiche Bibliothek mit Full-Stack-Software, darunter u. a. NVIDIA KI-Workflows, Frameworks, vortrainierte Modelle sowie Infrastrukturoptimierung. Durch eine globale Unternehmensunterstützung und regelmäßige Sicherheitsprüfungen wird die Kontinuität von Unternehmen und KI-Projekten sichergestellt.

NVIDIA Run:ai auf AWS Marketplace

Durch Bereitstellung einer Steuerungsebene für die GPU-Infrastruktur in Kubernetes-nativen Umgebungen vereinfacht NVIDIA Run:ai Unternehmen die Verwaltung der KI-Infrastruktur. Die Plattform adressiert die GPU-Auslastung, die Priorisierung von Workloads und die Transparenz der GPU-Auslastung mithilfe eines virtuellen GPU-Pools und die Bereitstellung einer dynamischen, richtlinienbasierten Planung. NVIDIA Run:ai lässt sich in verschiedene AWS-Dienste integrieren, darunter Amazon EC2, EKS, SageMaker HyperPod, IAM und CloudWatch. Auf diese Weise lassen sich die Leistung optimieren, Abläufe vereinfachen und eine einheitliche Grundlage für KI-/ML-Workloads bieten.

Mit NVIDIA beschleunigte AWS-Dienste

NVIDIA und AWS arbeiten eng an Integrationen zusammen, um die Leistung des mit NVIDIA beschleunigten Computings für eine breite Palette von AWS-Diensten zur Verfügung zu stellen. Unabhängig davon, ob man die durch NVIDIA-GPUs beschleunigten Instanzen auf AWS selbst bereitstellt und verwaltet oder sie in Managed Services wie Amazon SageMaker oder Amazon Elastic Kubernetes Service (EKS) nutzt, bietet dies die Flexibilität, das optimale Abstraktionsniveau zu wählen.

Amazon EMR

Nutzen Sie den NVIDIA RAPIDS™ Accelerator für Apache Spark innerhalb von Amazon EMR, um Apache Spark 3.x-Datenwissenschaftspipelines ohne Codeänderungen auf NVIDIA-GPU-beschleunigten AWS-Instanzen zu beschleunigen. Diese Integration ermöglicht es Datenwissenschaftlern, ETL-Prozesse (Extract, Transform, Load), Datenverarbeitung und Machine-Learning-Pipelines in großem Umfang und zu geringeren Cloud-Kosten auszuführen, indem sie in kürzerer Zeit und mit weniger Cloud-basierten Instanzen mehr erreichen.

Amazon SageMaker AI

Die KI-Software von NVIDIA und GPU-beschleunigte Instanzen ermöglichen eine Beschleunigung aller Schritte von KI- und maschinellen Lernprozessen innerhalb von Amazon Sagemaker, einschließlich Datenaufbereitung, Modelltraining und Inferenzbereitstellung. Um KI-Modelle schneller in die Produktion zu bringen und die Inferenzkosten zu senken, hat Amazon SageMaker den NVIDIA Triton Inference Server™ integriert. Damit werden Funktionen wie Multi-Framework-Unterstützung, dynamisches Batching und gleichzeitige Modellausführung ermöglicht, die die Leistung sowohl auf CPU- als auch auf GPU-Instanzen auf AWS maximieren.

Amazon Bedrock With Mantle

Amazon Bedrock ermöglicht es Unternehmen und Startups, agentische KI-Anwendungen im Produktionsumfang zu entwickeln. Die Plattform umfasst NVIDIA Nemotron-Modelle, die direkt im Amazon Bedrock-Modellkatalog verfügbar sind, NVIDIA NIM-Mikroservices auf dem Amazon Bedrock Marketplace und SageMaker Jumpstart, das NVIDIA NeMo Agent Toolkit, das in Amazon Bedrock AgentCore mit agentenbasierten, Composable Services integriert ist, sowie GPU-beschleunigte serverlose Vektor-Inferenz.

Entwickler-Ressourcen und Kurzanleitungen

NVIDIA-Entwicklerprogramm

In unserem Online-Bereich finden Sie auf Ihre Anforderungen zugeschnittene Ressourcen, wie u. a. fortschrittliche Softwaretools, technische Dokumentationen, Lernressourcen sowie Unterstützung durch Fachkollegen und Experten, um Ihre Arbeit im Bereich KI zu beschleunigen.

NVIDIA Deep Learning Institute (DLI) angeboten werden.

Mit praxisorientierten Kursen und von Experten geleiteten Schulungen können Sie die erforderlichen Kompetenzen erwerben und vertiefen, um Ihr Wissen in den Bereichen KI, beschleunigtes Computing, Datenwissenschaft, Grafik, Simulation und mehr zu erweitern.

NVIDIA Inception für Start-ups

Mit unserem kostenlosen Programm unterstützen wir KI-Startups mithilfe von neusten Technologien, Vernetzungsmöglichkeiten mit Investoren und aktuellen Entwicklertools und technischen Ressourcen von NVIDIA.

Nutzen Sie die Leistung von AWS und NVIDIA

Amazon EC2-Instanzen

NVIDIA AI Enterprise

NVIDIA Nemotron-Modelle auf AWS