Nutzen Sie von der Entwicklung bis zur Produktion die passenden Tools für große Sprachmodelle.
Erleben Sie die unternehmensfähige End-to-End-Plattform für generative KI.
Erleben Sie NVIDIA-optimierte Basismodelle
Prototyping mit NeMo und von NVIDIA gehosteten APIs.
Mit NVIDIA AI Enterprise in der Produktion ausführen.
Steigen Sie mit führenden, von NVIDIA entwickelten, generativen Open-Source-KI-Modellen, die für hohe Performance und Effizienz optimiert sind, in das Prototyping ein. LLMs können dann mit NeMo angepasst und mit NVIDIA NIM aus dem NVIDIA-API-Katalog bereitgestellt werden.
Starten Sie die Entwicklung generativer KI-Modelle mit automatisierter Datenverarbeitung, Modelltrainingsmethoden und flexiblen Bereitstellungsoptionen.
Verbinden Sie Unternehmensdaten mit generativen KI-Modellen und rufen Sie Informationen mit niedrigster Latenz, höchstem Durchsatz und maximalem Datenschutz ab.
Orchestrieren Sie das Dialogmanagement für LLMs, um die Genauigkeit, Eignung und Sicherheit in intelligenten Anwendungen sicherzustellen.
Nutzen Sie dieses GPU-beschleunigte Datenkurationstool, um für das Vortraining generativer KI-Modelle umfangreiche, qualitativ hochwertige Datensätze vorzubereiten.
Vereinfachen Sie mit diesem skalierbaren High-Performance-Microservice die Feinabstimmung und den Abgleich von LLMs für domänenspezifische Anwendungsfälle.
Evaluieren Sie benutzerdefinierte LLMs und RAGs effizient und zuverlässig in allen Clouds oder Rechenzentren anhand diverser wissenschaftlicher und benutzerdefinierter Benchmarks.
NVIDIA AI Enterprise ist die End-to-End-Softwareplattform, die generative KI für alle Unternehmen verfügbar macht und damit die schnellste und effizienteste Laufzeit für generative KI-Basismodelle bereitstellt. Enthalten sind auch NeMo und NVIDIA NIM, um mit Sicherheit, Stabilität, Verwaltbarkeit und Support die Einführung zu optimieren.
Fordern Sie eine kostenlose 90-Tage-Testversion an, um gleich heute Zugriff auf generative KI-Lösungen und Enterprise-Support zu erhalten.
Im NeMo-Dokumentations-Hub finden Sie eine Sammlung von Dokumenten, Leitfäden, Handbüchern, Anleitungen und andere Informationsressourcen.
Sehen Sie sich NVIDIA On-Demand an, das kostenlose Inhalte zu NeMo von der GTC und anderen Technologiekonferenzen aus der ganzen Welt bereitstellt.
Erfahren Sie, wie NeMo Ihnen das Erstellen, Anpassen und Bereitstellen großer Sprachmodelle (LLMs) ermöglicht.
Erfahren Sie in praxisorientierten Schulungen, wie Sie End-to-End-Projekte einrichten. Lassen Sie sich dann für die neuesten generativen KI-Technologien zertifizieren.
NVIDIA NeMo ist ein durchgängiges, Cloud-natives Framework, mit dem Sie überall generative KI-Modelle erstellen, anpassen und bereitstellen können. Es umfasst Frameworks für Training und Inferenzen, ein Leitplanken-Toolkit, Tools zur Datenpflege sowie vortrainierte Modelle und bietet Unternehmen eine einfache, kostengünstige und schnelle Möglichkeit zur Einführung generativer KI. Entwickler können über folgende Optionen auf den Open-Source-Code von NeMo zugreifen: GitHub, als Container-Paket im NVIDIA NGC™-Katalogoder über ein NVIDIA AI Enterprise Abonnement.
NeMo ist in NVIDIA AI Enterprise enthalten. Ausführliche Informationen zu Preisen und Lizenzen finden Sie hier.
Kunden erhalten NVIDIA Business-Standard-Support über ein NVIDIA AI Enterprise Abonnement, das NeMo umfasst. NVIDIA Business-Standard-Support bietet Service Level Agreements, Zugang zu NVIDIA-Experten und langfristigen Support für Bereitstellungen vor Ort und in der Cloud.
NVIDIA AI Enterprise umfasst NVIDIA Business-Standard-Support. Weitere Informationen zu zusätzlichen Optionen für Support und Dienstleistungen, wie NVIDIA Business-Critical Support, Technical Account Manager, Schulungen und professionelle Services, finden Sie im Leitfaden für NVIDIA Enterprise-Support und -Dienste.
Als Teil des NeMo-Frameworks ist NeMo Curator ein skalierbares Tool für die Datenpflege, mit dem Entwickler mehrsprachige Datensätze mit Billionen Token für das Vortraining von LLMs sortieren können. NeMo Curator besteht aus einer Reihe von Python-Modulen, ausgedrückt als APIs, die Dask, cuDF, cuGraph und Pytorch nutzen, um Aufgaben der Datenkuration wie Datendownload, Textextraktion, Bereinigung, Filterung, Exact/Fuzzy-Deduplizierung und Textklassifizierung auf Tausende Rechenkerne zu skalieren.
NeMo Guardrailsist ein Open-Source-Toolkit, das die Dialogverwaltung orchestriert und die Genauigkeit, Eignung und Sicherheit in intelligenten Anwendungen mit großen Sprachmodellen sicherstellt. Es schützt Unternehmen, die LLM-Systeme beaufsichtigen.
Mit NeMo Guardrails können Entwickler drei Arten von Grenzen festlegen:
NeMo Retriever ist eine Sammlung generativer KI-Microservices. Damit können Unternehmen benutzerdefinierte Modelle nahtlos mit diversen Geschäftsdaten verbinden, um hochpräzise Antworten zu erhalten. NeMo Retriever bietet einen erstklassigen Informationsabruf mit der niedrigsten Latenz, dem höchsten Durchsatz und maximalem Datenschutz. Dies ermöglicht Unternehmen eine bessere Nutzung ihrer Daten und das Generieren geschäftlicher Erkenntnisse in Echtzeit. NeMo Retriever verbessert generative KI-Anwendungen durch RAG-Funktionen (Retrieval-Augmented Generation) auf Unternehmensniveau, die mit Geschäftsdaten an beliebigen Orten verbunden werden können.
NVIDIA NIM ist Teil von NVIDIA AI Enterprise. Es handelt sich um eine benutzerfreundliche Laufzeitumgebung, die entwickelt wurde, um die Bereitstellung generativer KI in Unternehmen zu beschleunigen. Dieser vielseitige Microservice unterstützt ein breites Spektrum an KI-Modellen – von Open-Source-Community-Modellen zu NVIDIA AI Foundation-Modellen und benutzerdefinierten KI-Modellen. Basierend auf den robusten Grundlagen der Inferenz-Engines ist NIM für nahtlose KI-Inferenz im großen Maßstab ausgelegt. So wird sichergestellt, dass KI-Anwendungen in der Cloud, im Rechenzentrum und auf der Workstation bereitgestellt werden können.
NeMo Evaluator ist ein automatisierter Microservice für die schnelle und zuverlässige Bewertung von benutzerdefinierten LLMs und RAGs. NeMo Evaluator umfasst diverse Benchmarks mit vordefinierten Metriken, einschließlich menschlicher Bewertungen und LLMs-as-a-Judge-Methoden. Auf Kubernetes können über API-Aufrufe mehrere Evaluierungsaufgaben gleichzeitig über bevorzugte Cloud-Plattformen oder Rechenzentren hinweg bereitgestellt werden, was effiziente aggregierte Ergebnisse ermöglicht.
NeMo Customizer ist ein hochleistungsfähiger, skalierbarer Microservice, der die Feinabstimmung und den Abgleich von LLMs für domänenspezifische Anwendungsfälle vereinfacht.
Retrieval-Augmented Generation (RAG) ist eine Methode, mit der LLMs Antworten aus den aktuellsten Informationen erstellen können, indem das LLM mit der Wissensdatenbank des Unternehmens verbunden wird. NeMo arbeitet mit einer Reihe von Drittanbieter- und Community-Tools, wie Milvus, Llama Index und LangChain, zusammen, um relevante Informationsausschnitte aus der Vektordatenbank zu extrahieren und diese dem LLM zuzuführen, damit es Antworten in natürlicher Sprache generieren kann.
NVIDIA bietet KI-Workflows, bei denen es sich um Cloud-native, als Paket bereitgestellte Referenzbeispiele handelt, mit denen die Nutzung von NVIDIA-KI-Frameworks zur Entwicklung von KI-Lösungen veranschaulicht wird. Mit vorab trainierten Modellen, Trainings- und Inferenzpipelines, Jupyter Notebooks und Helm-Charts beschleunigen KI-Workflows die Bereitstellung von KI-Lösungen.
Nutzen Sie die folgenden End-to-End-Workflows, um schnell Ihre eigenen generativen KI-Lösungen zu entwickeln:
NVIDIA LaunchPad ist eine universelle Testumgebung und bietet umfassende Tests der neuesten NVIDIA-Hardware und -Software für Unternehmen. Diese dynamische Plattform beschleunigt Kurzzeittests, ermöglicht langfristige Machbarkeitsstudien (Proof of Concept, POCs) und beschleunigt die Entwicklung von Managed Services und Standalone-Lösungen.
Die Benutzer können ihre KI-Reise mit einer aufschlussreichen, auf ihre Bedürfnisse zugeschnittenen Entwicklungsumgebung beginnen. Oder sie können einen riesigen Katalog an Praxis-Labs durchsuchen, die immersive Erfahrungen in einem Spektrum von Anwendungsfällen bieten – von KI über Datenwissenschaft bis hin zu 3D-Design und Infrastrukturoptimierung. Unternehmen erhalten einfachen Zugriff auf die neuesten beschleunigten Hardware- und Software-Stacks, die in einer privaten gehosteten Infrastruktur bereitgestellt werden.
NVIDIA AI Enterprise ist eine durchgängige, Cloud-native Softwareplattform, die datenwissenschaftliche Pipelines beschleunigt und die Entwicklung und Bereitstellung generativer KI-Anwendungen optimiert, einschließlich generativer KI, Computer Vision, Sprach-KI und mehr. Sie umfasst erstklassige Entwicklungstools, Frameworks und vortrainierte Modelle für KI-Anwender und zuverlässiges Management und Orchestrierung für IT-Spezialisten, um Leistung, hohe Verfügbarkeit und Sicherheit zu gewährleisten.
Der NVIDIA-API-Katalog bietet produktionsbereite generative KI-Modelle und eine laufend optimierte Inferenz-Laufzeit, die zum Microservices-Paket NVIDIA NIM gepackt sind und mit standardisierten Tools einfach auf jedem GPU-beschleunigten System bereitgestellt werden können.
Bleiben Sie mit Neuigkeiten zu generativer KI von NVIDIA immer auf dem Laufenden.
Erhalten Sie Entwickler-Updates, Ankündigungen und mehr von NVIDIA direkt in Ihren Posteingang.
Ich möchte aktuelle Neuigkeiten, Ankündigungen und weitere Informationen von NVIDIA zu Business-Lösungen für Unternehmen und Entwicklertechnologie & Tools erhalten.
NVIDIA-Datenschutzrichtlinie