Generative KI

NVIDIA NeMo

Erstellen, Anpassen und Bereitstellen von Large Language Models (LLMs).

Mit dem Cloud-nativen, durchgängigen Framework  NVIDIA NeMoTM  können Sie generative KI-Modelle überall schneller erstellen, anpassen und bereitstellen. Es umfasst Frameworks für Training und Inferenz, Leitplanken-Toolkits, Tools zur Datenpflege sowie vortrainierte Modelle und bietet Unternehmen eine einfache, kostengünstige und schnelle Möglichkeit zur Einführung generativer KI. 

Entdecken Sie die Vorteile von NVIDIA NeMo

Durchgängig

Komplettlösung für den gesamten LLM-Ablauf – von der Datenverarbeitung über das Training bis hin zur Inferenz generativer KI-Modelle.

Enterprise-Ebene

Sichere, optimierte Full-Stack-Lösung für mehr Effizienz in Unternehmen dank Support, Sicherheit und API-Stabilität als Teil von NVIDIA AI Enterprise.

Höherer ROI

Mit NeMo können Unternehmen LLMs schnell trainieren, anpassen und in großem Maßstab bereitstellen, was die Lösungsdauer verkürzt und den ROI erhöht.

Flexibel

End-to-End-Framework mit Funktionen zur Datenpflege, zum Trainieren umfangreicher Modelle mit Billionen von Parametern und deren Bereitstellung in der Inferenz.

Open Source

Als Open Source verfügbar über GitHub und den NVIDIA NGC-Softwarekatalog, um es Entwicklern und Forschern zu erleichtern, neue LLMs zu erstellen.

Training & Inferenz beschleunigen

Training und Inferenz mit mehreren Knoten und mehreren Grafikkarten zur Maximierung der Verarbeitungsmenge und Minimierung der LLM-Trainingszeit.

Komplettlösung zum Erstellen
unternehmensfähiger Large Language Models

Da sich generative KI-Modelle schnell weiterentwickeln und erweitern, nehmen die Komplexität des KI-Stacks und seiner Abhängigkeiten zu. Für Unternehmen, die in ihren Geschäften KI einbeziehen, bietet NVIDIA AI Enterprise eine produktionstaugliche, sichere End-to-End-Softwareplattform mit NeMo und generativen KI-Referenzanwendungen sowie Enterprise-Support, um die Einführung zu optimieren.

Modernste Trainingsmethoden

NeMo bietet Tools für dezentrales Training von LLMs, die eine erweiterte Skalierung, Geschwindigkeit und Effizienz ermöglichen.

Modernste Trainingsmethoden

NeMo bietet Tools für dezentrales Training von LLMs, die eine erweiterte Skalierung, Geschwindigkeit und Effizienz ermöglichen.

Fortschrittliche LLM-Anpassungstools

NeMo erlaubt die Integration von domänenspezifischen Echtzeitdaten über Inform. Dies ermöglicht maßgeschneiderte Antworten auf die einzigartigen Herausforderungen Ihres Unternehmens und macht die Einbettung von Spezialfähigkeiten möglich, um spezifische Kunden- und Unternehmensanforderungen zu erfüllen. 

NeMo Guardrails hilft dabei, operative Grenzen zu definieren, sodass die Modelle innerhalb der vorgesehenen Bereiche arbeiten und unangemessene Ergebnisse vermieden werden. 

NeMo unterstützt die Technik des Reinforcement Learning from Human Feedback (RLHF), mit der Unternehmensmodelle im Laufe der Zeit immer intelligenter werden und an die menschlichen Absichten angepasst werden können.

Optimierte KI-Inferenz mit NVIDIA Triton

Stellen Sie generative KI-Modelle für die Inferenz mit dem NVIDIA Triton Inference Server™ bereit. Mit leistungsstarken Optimierungen können Sie bei Konfigurationen mit einer einzelnen oder mehreren Grafikkarten sowie mehreren Knoten eine Inferenzleistung auf dem neuesten Stand der Technik in Sachen Genauigkeit, Latenz und Durchsatz erreichen.

Optimierte KI-Inferenz mit NVIDIA Triton

Stellen Sie generative KI-Modelle für die Inferenz mit dem NVIDIA Triton Inference Server™ bereit. Mit leistungsstarken Optimierungen können Sie bei Konfigurationen mit einer einzelnen oder mehreren Grafikkarten sowie mehreren Knoten eine Inferenzleistung auf dem neuesten Stand der Technik in Sachen Genauigkeit, Latenz und Durchsatz erreichen.

Skalierbare Datenverarbeitung

Wandeln Sie die Daten Ihres eigenen Datensatzes in Token um, damit diese besser verarbeitet werden können. NeMo bietet umfassende Vorverarbeitungsfunktionen für die Datenfilterung, Deduplizierung, Mischung und Formatierung von Sprachdatensätzen. So sparen Entwickler und Ingenieure monatelange Entwicklungs- und Rechenzeit.

Benutzerfreundliche Anleitungen und Tools für generative KI

NeMo ermöglicht den Einsatz generativer KI ab dem ersten Tag mit vorgefertigten Skripten, Referenzbeispielen und Dokumentation für den gesamten Ablauf. 

Das Erstellen von Basismodellen wird zudem durch ein Auto-Konfigurator-Tool vereinfacht, das automatisch nach den besten Hyperparameterkonfigurationen sucht, um das Training und die Inferenz für jede gegebene Konfiguration mit mehreren Grafikkarten, Trainings oder Bereitstellungseinschränkungen zu optimieren. 

Benutzerfreundliche Anleitungen und Tools für generative KI

NeMo ermöglicht den Einsatz generativer KI ab dem ersten Tag mit vorgefertigten Skripten, Referenzbeispielen und Dokumentation für den gesamten Ablauf. 

Das Erstellen von Basismodellen wird zudem durch ein Auto-Konfigurator-Tool vereinfacht, das automatisch nach den besten Hyperparameterkonfigurationen sucht, um das Training und die Inferenz für jede gegebene Konfiguration mit mehreren Grafikkarten, Trainings oder Bereitstellungseinschränkungen zu optimieren. 

Branchenführende vortrainierte Modelle

Mit NeMo können Entwickler vortrainierte Modelle von NVIDIA sowie beliebte Open-Source-Modelle verwenden und sie an ihre Anforderungen anpassen. Dadurch werden die Anforderungen an Daten und Infrastruktur reduziert und die Lösungsdauer beschleunigt. 

NeMo bietet vortrainierte Modelle, die sowohl über NGC als auch über Hugging Face verfügbar sind und auf optimale Leistung getestet und ausgelegt sind. 

Von Cloud auf PC verfügbar

Das NeMo-Framework ist flexibel und kann überall per Cloud, über das Rechenzentrum oder sogar auf PCs und Workstations mit NVIDIA RTX™-Grafikkarten ausgeführt werden. Unternehmen, die benutzerdefinierte LLMs als Service einrichten möchten, können dazu NVIDIA AI Foundationsnutzen – eine Reihe an Modellierungsdiensten, die generative KI auf Unternehmensebene fördern und eine Anpassung an verschiedene Anwendungsfälle in Bereichen wie Text (NVIDIA NeMo), visuelle Inhalte (NVIDIA ) und Biologie (NVIDIA BioNeMo™) unterstützen – alles über die NVIDIA DGX™ Cloud

Von Cloud auf PC verfügbar

Das NeMo-Framework ist flexibel und kann überall per Cloud, über das Rechenzentrum oder sogar auf PCs und Workstations mit NVIDIA RTX™-Grafikkarten ausgeführt werden. Unternehmen, die benutzerdefinierte LLMs als Service einrichten möchten, können dazu NVIDIA AI Foundationsnutzen – eine Reihe an Modellierungsdiensten, die generative KI auf Unternehmensebene fördern und eine Anpassung an verschiedene Anwendungsfälle in Bereichen wie Text (NVIDIA NeMo), visuelle Inhalte (NVIDIA ) und Biologie (NVIDIA BioNeMo™) unterstützen – alles über die NVIDIA DGX™ Cloud

Erste Schritte mit NVIDIA NeMo

NVIDIA NeMo-Framework herunterladen

Erhalten Sie sofortigen Zugriff auf Trainings- und Inferenz-Tools, mit denen Unternehmen die generative KI-Modellentwicklung einfach, kostengünstig und schnell gestalten können.

Für NVIDIA NeMo Foundry Early Access anmelden

Bewerben Sie sich für einen Early Access zur NVIDIA NeMo Cloud Foundry, die Teil der NVIDIA AI Foundations ist, und LLMs für KI-Unternehmensanwendungen exakt personalisieren und im großen Maßstab bereitstellen kann.

Für den Early Access zum NeMo Multi-Modal-Framework anmelden

Ermöglicht das Erstellen, Anpassen und Bereitstellen von multimodalen generativen KI-Modellen mit Milliarden von Parametern. Die Prüfung der Anmeldung kann länger als zwei Wochen dauern.

Kunden, die NeMo zur Erstellung
benutzerdefinierter LLMs verwenden

Beschleunigen von Branchenanwendungen mit LLMs

AI Sweden hat die Anwendung regionaler Sprachmodelle vereinfacht, indem es einfachen Zugriff auf ein leistungsstarkes 100-Milliarden-Parametermodell ermöglicht hat. Dort wurden historische Aufzeichnungen digitalisiert, um Sprachmodelle für die kommerzielle Nutzung zu entwickeln.

Bild mit freundlicher Genehmigung von Korea Telecom

Ein neues Kundenerlebnis dank LLMs

Südkoreas führender Mobilfunkbetreiber erstellt LLMs mit Milliarden von Parametern, die mit der NVIDIA DGX SuperPOD-Plattform und dem NeMo Framework trainiert werden, um smarte Lautsprecher und Kundenzentren zu unterstützen.

Generative KI über die gesamte Unternehmens-IT hinweg

ServiceNow entwickelt kundenspezifische LLMs auf seiner ServiceNow-Plattform, um intelligente Workflow-Automatisierung zu ermöglichen und die Produktivität der gesamten IT-Prozesse in Unternehmen zu steigern.

Generierung benutzerdefinierter Inhalte für Unternehmen

Mit generativer KI erstellt Writer benutzerdefinierte Inhalte für Unternehmensanwendungen in den Bereichen Marketing, Schulung, Support und mehr.

Unternehmensdaten für generative KI nutzen

Mit Snowflake können Unternehmen maßgeschneiderte generative KI-Anwendungen mit proprietären Daten in der Snowflake Data Cloud erstellen.

Entdecken Sie die NeMo-Ressourcen

Einführung in NeMo

NVIDIA hat vor Kurzem die allgemeine Verfügbarkeit von NeMo bekanntgegeben. Im Blog finden Sie Neuigkeiten dazu und erfahren, wie Sie LLMs in großem Maßstab erstellen, anpassen und bereitstellen können.

Erste Schritte mit NeMo

Hier finden Sie alles, was Sie benötigen, um mit NVIDIA NeMo loszulegen, einschließlich Tutorials, Jupyter Notebooks und Dokumentation.  

Technische Blogs entdecken

In diesen technischen Komplettlösungen für NeMo erfahren Sie, wie Sie generative KI-Modelle in großem Maßstab erstellen, anpassen und bereitstellen.

LLM-E-Book für Unternehmen herunterladen

Erfahren Sie alles, was Sie über LLMs wissen müssen, einschließlich der Funktionsweise und der Möglichkeiten, die sie eröffnen, und Fallstudien aus der Praxis. 

Erste Schritte mit NVIDIA NeMo