Gesprächs-KI

Beschleunigen Sie die gesamte Pipeline, von der Spracherkennung über das Sprachverständnis bis hin zur Sprachsynthese

KI-gestützte Dienste in Sprache und Linguistik stellen eine Revolution für personalisierte, natürliche Gespräche dar. Sie müssen jedoch für Echtzeitinteraktivität strenge Präzisions-und Latenzanforderungen erfüllen. Mit dem Gesprächs-KI-SDK von NVIDIA können Entwickler schnell hochmoderne KI-Dienste entwickeln, um Anwendungen innerhalb einer einheitlichen Architektur zu versorgen. Dadurch können hochpräzise Systeme mit geringer Latenz ohne große Vorabinvestitionen entwickelt werden.

 
Gesprächs-KI-Modelle von NGC

Erstklassige Genauigkeit

Nutzen Sie Gesprächs-KI-Modelle von NGC, die mehr als 100.000 Stunden lang mit verschiedenen freien und proprietären Datensätzen auf NVIDIA DGX-Systemen trainiert werden.

Multinodale Lösungen zum Aufbau menschenähnlicher interaktiver Fertigkeiten

Vollständig anpassbar

Passen Sie die Gesprächs- und Sprachfähigkeiten in jeder Phase des Prozesses an – von Daten über das Modell bis hin zur Pipeline. 

Optimierte Modelle in der Cloud und im Rechenzentrum bereitstellen

Skalierbare Bereitstellung

Skalieren Sie Ihre Anwendungen ganz einfach, um Hunderte und Tausende gleichzeitiger Anfragen zu verarbeiten.

End-to-End-Beschleunigung zur Ausführung von Modellinferenz unter 300 ms Latenz

Echtzeitleistung

Führen Sie End-to-End-Modellinferenz innerhalb der Grenze einer Latenz von weniger als 300 Millisekunden (ms) aus.

Einführung in Gesprächs-KI

Laden Sie unser E-Book herunter, um eine Einführung in die Gesprächs-KI, ihre Funktionsweise und ihre aktuelle Anwendung in der Industrie zu erhalten.

Echte Ende-zu-Ende-Beschleunigung

Vollständig beschleunigte Pipeline

Vollständige Pipelineinferenz im Bruchteil einer Sekunde

Führen Sie mit weniger als 300 ms Latenz vollständige Gesprächs-KI-Pipelines aus, mit automatischer Spracherkennung (ASR) für Audiotranskription, Verständnis für natürliche Sprache (NLU) und Text-to-Speech (TTS). Diese platzsparende Echtzeitinteraktivität ermöglicht eine höhere Pipelinekomplexität ohne Einbußen bei der Nutzererfahrung.

NVIDIA-Lösungen für
Gesprächs-KI-Anwendungen

Trainingslösungen

Modelle mit NVIDIA NeMo ganz einfach entwickeln

Modelle mit NVIDIA NeMo ganz einfach entwickeln

Erstellen, trainieren und optimieren Sie hochmoderne Gesprächs- und Sprachmodelle mithilfe eines Open-Source-Frameworks, NVIDIA NeMo™.

Intelligenteres Training mit dem NVIDIA TAO-Toolkit

Intelligenteres Training mit dem NVIDIA TAO-Toolkit

Beschleunigen Sie die Entwicklungszeit um das 10-Fache mit produktionsreifen, von NVIDIA vortrainierten Modellen und dem NVIDIA TAO-Toolkit.

NVIDIA DGX A100 für KI-Infrastruktur

Trainingsprogramme auf NVIDIA DGX A100-Systemen

Gelangen Sie schneller zur Lösung, mithilfe leistungsstarker Sprachmodelle mit Milliarden von Parametern und unübertroffener Geschwindigkeit und Skalierbarkeit.

Bereitstellungslösungen

NVIDIA Riva – Gesprächs-KI-Dienste

Vereinfachte Bereitstellung mit NVIDIA Riva

Implementieren Sie optimierte Gesprächs-KI-Modelle für maximale Leistung in der Cloud, im Rechenzentrum und in der Peripherie.

Echtzeit-Gespräche mit NVIDIA ermöglichen

Implementierung in der Peripherie mit der NVIDIA EGX-Plattform

Echtzeitgespräche ohne Netzwerklatenz dank der Verarbeitung großer Datenvolumen an Sprache und Linguistik in der Peripherie.

Training und Implementierung mit speziell entwickelten Systemen

Training in großem Maßstab

NVIDIA DGX A100 enthält acht NVIDIA A100 Tensor Core-GPUs – die fortschrittlichsten je gebauten Grafikbeschleuniger für Rechenzentren. Tensor Float 32-Präzision (TF32) steigert die KI-Leistung gegenüber früheren Generationen um das 20-Fache – ohne Veränderungen am Code. Zusätzlich bietet sie eine zweifache Leistungssteigerung durch die Ausnutzung von Structural Sparsity in üblichen NLP-Modellen. Durch das A100-Design können mehrere DGX A100-Systeme riesige Modelle mit Milliarden von Parametern vollumfänglich trainieren, um marktführende Genauigkeit zu liefern. NVIDIA stellt die NeMo- und TAO-Toolkits für das verteilte Training von Gesprächs-KI-Modellen auf A100 bereit.

NVIDIA DGX A100 – universelle Systeme für KI-Infrastruktur
NVIDIA DGX A100 – universelle Systeme für KI-Infrastruktur

Implementierung in der Peripherie

Die NVIDIA EGX-Plattform ermöglicht Gesprächs-KI in Echtzeit mit geringer Netzwerklatenz dank der Verarbeitung großer Volumen an Sprachdaten am Edge. Mit NVIDIA TensorRT können Entwickler Modelle für Inferenz optimieren und Gesprächs-KI-Anwendungen mit geringer Latenz und hoher Leistung bereitstellen. Mit dem NVIDIA Triton Inference Server können die Modelle anschließend in der Produktion eingesetzt werden. TensorRT und Triton Inference Server arbeiten mit NVIDIA Riva, einem Anwendungs-Framework für Gesprächs-KI. Sie ermöglichen somit die Entwicklung und Bereitstellung GPU-beschleunigter Ende-zu-Ende-Pipelines auf EGX. Riva steuert TensorRT, konfiguriert den Triton Inference Server und veröffentlicht Dienste über eine Standard-API, indem er sie mit einem einzelnen Befehl über Helm Charts auf einem Kubernetes Cluster bereitstellt.

Gesprächs-KI-Anwendungen

Transkription mit mehreren Sprechern

Die klassischen Text-to-Speech-Algorithmen haben sich weiterentwickelt, wodurch es nun möglich ist, Meetings, Vorträge und soziale Konversationen zu transkribieren und gleichzeitig Referenten zu identifizieren sowie ihre Beiträge zu kennzeichnen. Mit NVIDIA Riva können Sie präzise Transkriptionen in Callcentern, Videokonferenzsitzungen erstellen und automatische Aufzeichnungen klinischer Hinweise bei Interaktionen zwischen Arzt und Patient erstellen. Mit Riva können Sie auch Modelle und Pipelines an Ihre spezifischen Anwendungsfallanforderungen anpassen.

NVIDIA Riva ermöglicht die Verschmelzung von Audio- und Videodaten mehrerer Sensoren
KI-gestützte Dienste für die Kundeninteraktion

Virtueller Assistent

Virtuelle Assistenten können auf nahezu menschliche Art und Weise mit Kunden interagieren, was bei Kundeninformationszentren, smarten Lautsprechern und intelligenten Assistenten in Fahrzeugen zum Tragen kommt. KI-gestützte Dienste wie Spracherkennung, Sprachverständnis, Sprachsynthese und Vocoding alleine können ein solches System nicht unterstützen, da wichtige Komponenten wie Dialogverfolgung fehlen. Riva ergänzt diese Backbone-Dienste durch benutzerfreundliche Komponenten, die für jede Anwendung erweitert werden können.

Beschleunigung von Unternehmen und Entwicklerbibliotheken

  • Ökosystempartner
  • Entwicklerbibliotheken

GPU-Beschleunigung für führende Sprach-, Bilderkennungs- und Linguistik-Workflows, um den Anforderungen von Unternehmen gerecht zu werden.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Erstellen Sie mit beliebten Gesprächs-KI-Bibliotheken grafikprozessorbeschleunigte, hochmoderne Deep Learning-Modelle.

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Anwendungsbeispiele

Curai-Plattform verbessert Patientenerfahrung

Chatbasierte App verbessert Patientenerfahrung

Durch die Verarbeitung natürlicher Sprache ermöglicht es die Plattform von Curai den Patienten, Ärzten ihre Beschwerden zu vermitteln und auf ihre eigene Krankenakte zuzugreifen. Gesundheitsdienstleistern hilft sie dabei, Daten aus medizinischen Gesprächen für eine angemessene Behandlung zu extrahieren.

Square rundet Gesprächs-KI mithilfe von GPUs ab

Square rundet Gesprächs-KI mithilfe von GPUs ab

Erfahren Sie mehr über Square Assistant, eine Gesprächs-KI-Engine, die es kleinen Unternehmen ermöglicht, effizienter mit ihren Kunden zu kommunizieren.

Natural Language Processing zur Betrugsprävention

Natural Language Processing zur Betrugsprävention

Schätzungen zufolge werden Unternehmen bis 2023 mehr als 200 Milliarden Dollar bei der Betrugsprävention einsparen. Hier erfahren Sie, warum NLP für diese Einsparungen entscheidend ist, wie es Betrug auf verschiedenen Kanälen erkennen kann und wie American Express, Bank of New York Mellon und PayPal es bei ihren Strategien zur Betrugserkennung verwenden.

Machen Sie heute noch den ersten Schritt mit beschleunigter Gesprächs-KI

Intelligenteres Training mit dem NVIDIA TAO-Toolkit

Trainingsprogramme auf NVIDIA DGX A100-Systemen

Vereinfachte Bereitstellung mit NVIDIA Riva

Bereitstellung in der Peripherie mit der NVIDIA EGX-Plattform

Bereitstellung in der Peripherie mit der NVIDIA EGX-Plattform

Modelle mit NVIDIA NeMo ganz einfach erstellen