IA conversazionale multimodale

Accelera l'intero flusso di lavoro, dal riconoscimento vocale automatico alla comprensione del linguaggio naturale e l'output Text-to-Speech.

I servizi basati su IA in voce, linguaggio e visione offrono un percorso rivoluzionario per conversazioni naturali personalizzate, ma devono soddisfare requisiti rigorosi in termini di accuratezza e latenza per consentire un'interattività in tempo reale. Con la piattaforma IA conversazionale di NVIDIA, gli sviluppatori possono creare e distribuire rapidamente servizi IA all'avanguardia per alimentare le applicazioni in una singola architettura unificata, fornendo sistemi ad altissima precisione e a bassa latenza senza necessità di ingenti investimenti anticipati.

 
Conversational AI Models From NGC

Modelli all'avanguardia

Sfrutta i modelli di IA conversazionale dell'NGC™ addestrati per oltre 100.000 ore su sistemi NVIDIA DGX systems.

Multinodal Solutions to Build Human-Like Interactive Skills

Competenze multimodali personalizzate

Combina facilmente voce, linguaggio e visione in una singola pipeline per creare competenze interattive simili a quelle umane.

Deploy Optimized Models in the Cloud & Data Center

Distribuzione rapida

Distribuisci modelli ottimizzati nel cloud, nel data center e sui dispositivi periferici con un solo comando.

End-to-End Acceleration to Execute Model Inference Under the 300ms latency Bound

Accelerazione completa

Accelera a livello di progetto ed esegui inferenze dei modelli con una latenza limite ben al di sotto dei 300 millisecondi (ms).

Vera accelerazione completa

Flussi completamente accelerati

Inferenza dei flussi completi in una frazione di secondo

Esegui flussi di lavoro di IA conversazionale completi con riconoscimento vocale automatico (ASR) per la trascrizione audio, comprensione del linguaggio naturale (NLU) e Text-to-Speech (TTS) con limite di latenza sotto i 300 ms per le interazioni in tempo reale, liberando spazio per aumentare la complessità del progetto senza sacrificare l'esperienza utente.

Le GPU NVIDIA A100 Tensor Core offrono prestazioni da record nel benchmark MLPerf Training v0.7, con un clock di 6,53 ore per acceleratore per BERT su WikiText e 0,83 minuti in scala.

Soluzioni NVIDIA per
applicazioni di IA conversazionale

Training e distribuzione con sistemi appositamente progettati

Training su larga scala

NVIDIA DGX™ A100 include otto GPU NVIDIA A100 Tensor Core, l'acceleratore per data center più avanzato mai realizzato. La precisione Tensor Float 32 (TF32) garantisce un miglioramento delle prestazioni di IA di 20 volte rispetto alle generazioni precedenti, senza alcuna modifica del codice, oltre a un ulteriore raddoppiamento delle prestazioni grazie alla densità strutturale su modelli NLP comuni. NVIDIA® NVLink® di terza generazione, NVIDIA NVSwitch™ di seconda generazione e NVIDIA Mellanox® InfiniBand abilitano connessioni a larghezza di banda ultra elevata e bassa latenza tra tutte le GPU. Questo permette a più sistemi DGX A100 di eseguire il training di modelli di miliardi di parametri su larga scala per fornire una precisione all'avanguardia. E con NVIDIA NeMo™, un toolkit open-source, gli sviluppatori possono creare, addestrare e perfezionare modelli di IA conversazionale accelerati da DGX con poche righe di codice.

NVIDIA DGX A100: il sistema universale per l'infrastruttura IA
NVIDIA EGX™ A100 abilita la conversazione in tempo reale basata su IA

Distribuzione sui sistemi periferici

NVIDIA EGX Platform abilita la conversazione in tempo reale, evitando la latenza di rete, elaborando elevati volumi di dati vocali e linguistici sui dispositivi periferici. Con NVIDIA TensorRT™, gli sviluppatori possono ottimizzare i modelli di inferenza e offrire applicazioni di IA conversazionale con bassa latenza e throughput elevato. Con NVIDIA Triton™ Inference Server, i modelli possono essere distribuiti in produzione. TensorRT e Triton Inference Server funzionano con NVIDIA Jarvis, un framework applicativo per l'IA conversazionale, per la creazione e la distribuzione di pipeline multimodali complete e accelerate da GPU su EGX. Al livello sottostante, Jarvis applica TensorRT, configura Triton Inference Server ed espone i servizi tramite un'API standard, distribuendo con un singolo comando tramite i grafici Helm su un cluster Kubernetes.

Competenze multimodali basate su IA

Trascrizione di più parlanti

Gli algoritmi classici di speech-to-text si sono evoluti, rendendo ora possibile la trascrizione di riunioni, conferenze e conversazioni sociali, individuando simultaneamente i parlanti e etichettando il loro contributo. NVIDIA Jarvis permette la fusione di dati di visione e audio acquisiti da più sensori in un singolo flusso di informazioni utilizzate per i componenti di trascrizione avanzata, come il "visual diarization" necessario per differenziare più voci in tempo reale.

 
 

Assistente virtuale

Gli assistenti virtuali possono interagire con i clienti in modo quasi umano, alimentando le interazioni nei centri di contatto, negli altoparlanti intelligenti e negli assistenti intelligenti in auto. I servizi basati su IA come il riconoscimento vocale, la comprensione del linguaggio, la sintesi vocale e il vocoding non riescono da soli a supportare un sistema del genere, perché mancano dei componenti chiave come il tracciamento del dialogo. Jarvis integra questi servizi essenziali con componenti facili da usare che possono essere estesi per qualsiasi applicazione.

Accelerare le librerie di imprese e sviluppatori

  • Partner dell'ecosistema
  • di imprese e sviluppatori

Accelerare i flussi di lavoro vocali, visivi e linguistici con GPU per soddisfare i requisiti di livello aziendale.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Le più diffuse librerie IA conversazionali alla base dei modelli di deep learning accelerati da GPU più all'avanguardia

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Casi d'uso di settore

Curai’s Platform to Enhance Patient Experience

App basata su chat per migliorare l'esperienza dei pazienti

Utilizzando l'elaborazione del linguaggio naturale, la piattaforma di Cureai consente ai pazienti di condividere le loro condizioni con i medici, accedere alle proprie cartelle cliniche e aiutare i fornitori a estrarre dati dalle conversazioni mediche per basare le cure su dati accurati.

Square Takes Edge Off Conversational AI with GPUs

Square riduce le complessità nell'IA conversazionale con le GPU

Scopri Square Assistant, un engine di IA conversazionale che aiuta le piccole imprese a comunicare con i clienti in modo più efficiente.

Transforming  Financial  Services  With Conversational  AI

Trasformare i servizi finanziari con l'IA conversazionale

Scopri il percorso aziendale migliore per un'implementazione di successo e come migliorare il ROI.

Inizia subito ad accelerare l'IA conversazionale

Addestrare modelli IA con il framework NVIDIA NeMo

Esegui il training sui sistemi NVIDIA DGX A100

Semplifica l'implementazione con il framework NVIDIA Jarvis

Distribuzione sui sistemi periferici con NVIDIA EGX A100