Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Verwenden Sie die richtigen Tools und Technologien, um generative KI-Modelle von der Entwicklung in den Produktivbetrieb zu bringen.
Erleben Sie die umfassende, unternehmenstaugliche Plattform für generative KI.
Ausprobieren von NVIDIA-optimierten Grundmodellen.
Anpassen von Modellen mit NVIDIA NeMo™ Microservices.
Stoßen Sie die Entwicklung Ihrer KI-Lösungen mit NVIDIA Blueprints an.
Einsatz im Produktivbetrieb mit NVIDIA AI Enterprise.
Beginnen Sie mit dem Prototyping mit führenden generativen KI-Modellen, die von NVIDIA und als Open-Source entwickelt wurden und die auf hohe Leistung und Effizienz getrimmt wurden. KI-Modelle aus dem NVIDIA-API-Katalog können mit NVIDIA NIM™ Microservices bereitgestellt und mit NeMo angepasst werden.
Nutzen Sie diesen GPU-beschleunigten Microservice für die Datenkuration, um große, hochwertige Datenbasen für das Pretraining generativer KI-Modelle vorzubereiten.
Nutzen Sie Industriestandard-APIs für die Feinabstimmung und Anpassung großer Sprachmodelle (LLMs) für fachspezifische Anwendungsfälle mit diesem leistungsstarken, skalierbaren Microservice.
Bewerten Sie effizient und zuverlässig eigene LLMs und Retrieval-Augmented Generation (RAG) mittels verschiedener akademische und benutzerdefinierte Benchmarks mit APIs.
Greifen Sie auf bereits verfügbare erstklassige Retrieval-Modelle zu, oder sehen Sie sich eine Vorschau der demnächst erscheinenden Retrieval-Modelle für das Einbetten, die Neueinstufung und das Einlesen an, um schnell genaue Erkenntnisse aus großen Mengen von Unternehmensdaten zu gewinnen.
Der Microservice dient der Orchestrierung der Dialogverwaltung für LLMs, um Genauigkeit, Angemessenheit und Sicherheit in intelligenten Anwendungen zu sichern.
Beginnen Sie mit der Entwicklung von generativer KI mit skalierbarer Datenverarbeitung und Techniken für beschleunigtes Modelltraining, und passen Sie Modelle mit der NeMo-Aligner-Bibliothek einfach an menschliche Logik und Präferenzen an.
NVIDIA Blueprints sind umfassende Referenz-Workflows, die mit Bibliotheken, SDKs und Microservices von NVIDIA AI und Omniverse™ entwickelt wurden. Jeder Blueprint umfasst Referenzcode, Bereitstellungstools, Leitfäden zur Anpassung und eine Referenzarchitektur, die die Bereitstellung von KI-Lösungen wie KI-Agenten und digitalen Zwillingen vom Prototyp bis zur Produktion beschleunigt.
NVIDIA AI Enterprise ist die End-to-End-Softwareplattform, die generative KI in jedes Unternehmen bringt und die schnellste und effizienteste Runtime für generative KI-Grundmodelle bietet. Sie umfasst NeMo und NVIDIA NIM, um die Einführung mit Sicherheit, Stabilität, Verwaltbarkeit und Support zu optimieren.
Fordern Sie eine kostenlose 90-Tage-Lizenz an, um schnell Zugang zu Lösungen mit generativer KI und Unternehmensunterstützung zu erhalten.
Im NeMo Documentation Hub finden Sie eine Sammlung von Dokumenten, Leitfäden, Handbüchern, Anleitungen und anderen Informationsquellen.
Sehen Sie sich NVIDIA On-Demand an, das kostenlose Inhalte zu NeMo von der GTC und anderen Technologiekonferenzen auf der ganzen Welt bietet.
Lesen Sie, wie NeMo Ihnen das Entwickeln, Anpassen und Bereitstellen großer Sprachmodelle ermöglicht.
Lernen Sie mit praktischem Unterricht, End-to-End-Projekte zu entwerfen, und lassen Sie sich für die neueste generative KI-Technologie zertifizieren.
NVIDIA NeMo ist ein Cloud-natives End-to-End-Framework mit einer Reihe von Microservices für die Entwicklung, Anpassung und Bereitstellung von generativen KI-Modellen an beliebiger Stelle. Es umfasst Datenkuration im großen Maßstab, beschleunigtes Training mit fortschrittlichen Anpassungstechniken, Guardrailing und optimierte Inferenz und bietet Unternehmen eine einfache, kostengünstige und schnelle Möglichkeit für die Einführung generativer KI.
NeMo ist als Teil von NVIDIA AI Enterprise erhältlich. Die vollständigen Preise und Lizenzierungsdetails finden Sie hier.
NeMo kann verwendet werden, um große Sprachmodelle (LLMs), Vision-Language-Modelle (VLMs), automatische Spracherkennung (ASR) und Text-to-Speech-Modelle (TTS) anzupassen.
Kunden können über ein NVIDIA AI Enterprise-Abonnement, das NeMo beinhaltet, NVIDIA Business-Standard-Support erhalten. NVIDIA Business-Standard-Support bietet Service-Level-Agreements, Zugang zu NVIDIA-Experten und langfristigen Support für vor-Ort- und Cloud-Bereitstellungen.
NVIDIA AI Enterprise umfasst NVIDIA Business-Standard-Support. Weitere verfügbare Support- und Serviceleistungen, wie z. B. NVIDIA Business-Critical Support, ein technischer Kundenbetreuer, Schulungen und Fachdienstleistungen, finden Sie im NVIDIA Enterprise Support and Service Guide.
NeMo Curator ist ein skalierbarer Microservice für Datenkuration, der es Entwicklern ermöglicht, mehrsprachige Datenbestände mit Billionen Token für das Pre-Training von LLMs zu sortieren. Er besteht aus einer Reihe von Python-Modulen in Form von APIs, die Dask, cuDF, cuGraph und Pytorch nutzen, um Datenaufbereitungsaufgaben wie das Herunterladen von Daten, die Textextraktion, die Bereinigung, das Filtern, die exakte/unscharfe Deduplizierung und die Textklassifizierung auf Tausende von Rechenkernen zu skalieren.
NeMo Guardrails ist ein Microservice, der für Angemessenheit und Sicherheit in intelligenten Anwendungen mit großen Sprachmodellen sorgt. Er schützt Unternehmen, die LLM-Systeme überwachen.
Mit NeMo Guardrails können Entwickler drei Arten von Abgrenzungen einrichten:
Mit NeMo Retriever, einer Sammlung von generativen KI-Microservices, die mit NVIDIA NIM entwickelt wurden, können Unternehmen eigene Modelle nahtlos mit verschiedenen Geschäftsdaten verbinden, um hochpräzise Antworten zu liefern. NeMo Retriever bietet erstklassigen Informationsabruf mit niedrigster Latenz, höchstem Durchsatz und maximalem Datenschutz, sodass Unternehmen ihre Daten besser nutzen und Geschäftserkenntnisse in Echtzeit gewinnen können. NeMo Retriever verbessert KI-Anwendungen mit Funktionen für Retrieval-Augmented Generation auf Unternehmensklasse und verbindet sie mit Geschäftsdaten, wo immer sie sich befinden.
NVIDIA NIM ist als Teil von NVIDIA AI Enterprise eine benutzerfreundliche Laufzeitumgebung, die die Bereitstellung von generativer KI in Unternehmen beschleunigen soll. Dieser vielseitige Microservice unterstützt ein breites Spektrum an KI-Modellen – von Modellen der Open-Source-Community über NVIDIA-AI-Foundation-Modelle bis hin zu maßgeschneiderten eigenen KI-Modellen. Er basiert auf den robusten Grundlagen der Inferenz-Engines und wurde entwickelt, um unproblematische KI-Inferenz im großen Maßstab zu ermöglichen und sicherzustellen, dass KI-Anwendungen in der Cloud, im Rechenzentrum und am Arbeitsplatz eingesetzt werden können.
NeMo Evaluator ist ein Microservice, der für die schnelle und zuverlässige Bewertung eigener LLMs und RAGs vorgesehen ist. Er umfasst verschiedene Benchmarks mit vordefinierten Metriken, einschließlich menschlicher Bewertungen und Methoden mit LLMs als Beurteilungshilfe. Mehrere Bewertungsjobs können über API-Aufrufe gleichzeitig auf Kubernetes über bevorzugte Cloud-Plattformen oder Rechenzentren verteilt werden, was effiziente aggregierte Ergebnisse ermöglicht.
NeMo Customizer ist ein hochleistungsfähiger, skalierbarer Microservice, der die Feinabstimmung und den Abgleich von LLMs für fachspezifische Anwendungsfälle vereinfacht.
Retrieval-Augmented Generation ist eine Technik, mit der LLMs Antworten aus den aktuellsten Informationen generieren können, indem sie diese mit der Wissensdatenbank des Unternehmens verbinden. NeMo arbeitet mit verschiedenen Tools von Drittanbietern und der Community, darunter Milvus, Llama Index und Langchain, um relevante Informationsschnipsel aus der Vektordatenbank zu extrahieren und sie an das LLM weiterzuleiten, um Antworten in natürlicher Sprache zu erzeugen. Informieren Sie sich auf der Seite KI-Chatbot mit RAG-Workflow über die Realisierung von KI-Chatbots, die für den Produktivbetrieb geeignet sind und die Fragen zu Ihren Unternehmensdaten präzise beantworten können.
NVIDIA bietet KI-Workflows an – Cloud-native Referenzbeispiele als Programmpaket, die zeigen, wie NVIDIA-AI-Frameworks für die Entwicklung von KI-Lösungen genutzt werden können. Mit vortrainierten Modellen, Training- und Inferenz-Pipelines, Jupyter Notebooks und Helm-Charts beschleunigen KI-Workflows die Schritte zur Bereitstellung von KI-Lösungen.
Entwickeln Sie Ihre generativen KI-Lösungen schnell mit diesen End-to-End-Workflows:
NVIDIA AI Enterprise ist eine Cloud-native End-to-End-Softwareplattform, die Data-Science-Pipelines beschleunigt und die Entwicklung und Bereitstellung von für den Produktivbetrieb geeigneten KI-Anwendungen, einschließlich generativer KI, Computer Vision, Sprach-KI und mehr, optimiert. Sie umfasst erstklassige Entwicklungstools, Frameworks, vortrainierte Modelle, Microservices für KI-Anwender und zuverlässige Verwaltungsmöglichkeiten für IT-Experten zur Sicherstellung von Leistung, API-Stabilität und Sicherheit.
Der NVIDIA API-Katalog bietet für den Produktivbetrieb geeignete generative KI-Modelle mit laufend optimierter Inferenz-Runtime als NVIDIA NIM Microservice, der mit standardisierten Tools leicht auf einem GPU-beschleunigten System implementiert werden kann.
Bleiben Sie auf dem Laufenden über die aktuellen Neuigkeiten zu generativer KI von NVIDIA.
Lassen Sie sich Entwickler-Updates, Ankündigungen und mehr von NVIDIA direkt an Ihren Posteingang schicken.
Ich möchte aktuelle Neuigkeiten, Ankündigungen und weitere Informationen von NVIDIA zu Business-Lösungen für Unternehmen und Entwicklertechnologie & Tools erhalten.
NVIDIA-Datenschutzrichtlinie