AI Conversacional

Acelere o Pipeline Completo, do Reconhecimento de Fala à Compreensão de Linguagem e Síntese de Fala

Serviços impulsionados por AI na fala e linguagem representam um caminho revolucionário para a comunicação natural personalizada, mas há vários desafios relacionados às exigências rigorosas de precisão e latência para interatividade em tempo real. Com o SDK de AI Conversacional da NVIDIA, os desenvolvedores podem criar e implementar rapidamente serviços de AI de última geração para impulsionar aplicações em uma arquitetura unificada, oferecendo sistemas de baixa latência altamente precisos com pouco investimento inicial.

 
Modelos de AI Conversacional do NGC

Precisão Superior

Aproveite os modelos de AI conversacional do NGC, treinados em vários conjuntos de dados abertos e proprietários por mais de 100.000 horas em sistemas NVIDIA DGX.

Soluções Multinodais para Criação de Habilidades Interativas Semelhantes às Humanas

Totalmente Personalizável

Personalize habilidades de fala e linguagem em todas as fases do processo, desde os dados e modelos aos pipelines. 

Implemente Modelos Otimizados no Cloud e no Data Center

Implantação Escalonável

Dimensione suas aplicações com facilidade para lidar com milhares de solicitações simultâneas.

Aceleração de Ponta a Ponta para Executar Inferência de Modelos com Limite de Latência de 300ms

Desempenho em Tempo Real

Execute a inferência de ponta a ponta de modelos com limite de latência de 300 milissegundos (ms).

Introdução à AI Conversacional

Faça download do nosso eBook para ler uma introdução à AI conversacional, como ela funciona e como é aplicada no setor hoje.

Aceleração Verdadeira de Ponta a Ponta

Pipeline Totalmente Acelerado

Inferência de Pipeline Completo em Frações de Segundo

Execute pipelines de AI Conversacional completos com reconhecimento automático de fala (ASR - Automatic Speech Recognition) para transcrições de áudio, compreensão de linguagem natural (NLU - Natural Language Understanding) e conversão de texto em fala (TTS - Text-To-Speech) com latência muito inferior a 300ms para interações em tempo real, liberando espaço para aumentar a complexidade do pipeline sem sacrificar a experiência do usuário.

Soluções NVIDIA para
Aplicações de AI Conversacional

Soluções para Treinamento

Desenvolva Modelos com Facilidade com o NVIDIA NeMo

Desenvolva Modelos com Facilidade com o NVIDIA NeMo

Crie, treine e ajuste modelos de linguagem e fala de última geração usando um framework de código aberto, o NVIDIA NeMo™.

Treinamentos Mais Inteligentes com o Kit de Ferramentas NVIDIA TAO

Treinamentos Mais Inteligentes com o Kit de Ferramentas NVIDIA TAO

Acelere o tempo de desenvolvimento em 10 vezes usando modelos pré-treinados com qualidade de produção da NVIDIA, e o Kit de Ferramentas NVIDIA TAO.

NVIDIA DGX A100 para Infraestrutura de AI

Execute Treinamentos nos Sistemas NVIDIA DGX A100

Acelere o tempo de solução aprendendo modelos poderosos de linguagem de bilhões de parâmetros, com velocidade e escalabilidade incomparáveis.

Soluções de Implantação

NVIDIA Riva - Serviços de AI Conversacional

Simplifique a Implantação com o NVIDIA Riva

Implemente serviços otimizados de AI conversacional para obter o máximo desempenho no cloud, no data center e no edge.

Converse em Tempo Real com a NVIDIA

Implante no Edge com a Plataforma NVIDIA EGX

Converse em tempo real enquanto evita a latência de rede ao processar altos volumes de dados de fala e linguagem no edge.

Treine e Implante com Sistemas Especificamente Desenvolvidos

Treinamento em Grande Escala

O NVIDIA DGX A100 conta com oito GPUs NVIDIA A100 Tensor Core, o acelerador de data centers mais avançado até hoje. A precisão do Tensor Float 32 (TF32) oferece uma melhoria de desempenho de AI 20 vezes maior em relação às gerações anteriores, sem nenhuma alteração de código e o dobro de desempenho, ao aproveitar a dispersão estrutural em modelos de NLP comuns. O projeto da A100 permite que vários sistemas DGX A100 treinem enormes modelos de bilhões de parâmetros em larga escala para fornecer uma precisão de última geração. A NVIDIA fornece os Kits de Ferramentas NeMo e TAO para um treinamento distribuído de modelos de AI conversacional na A100.

NVIDIA DGX A100 - O Sistema Universal para a Infraestrutura de AI
NVIDIA DGX A100 - O Sistema Universal para a Infraestrutura de AI

Implante no Edge

A plataforma NVIDIA EGX possibilita o desenvolvimento de AI conversacional em tempo real enquanto evita a latência de rede ao processar altos volumes de dados de fala e linguagem no edge. Com o NVIDIA TensorRT, os desenvolvedores podem otimizar modelos para inferência e oferecer aplicações de AI conversacional com baixa latência e alta taxa de processamento. Com o Servidor de Inferência NVIDIA Triton, os modelos podem ser implementados durante a produção. Os Servidores de Inferência TensorRT e Triton utilizam o NVIDIA Riva, um framework de aplicação de AI conversacional, para criação e implantação de ponta a ponta de pipelines acelerados por GPU no EGX. Basicamente, o Riva aplica o TensorRT, configura o Servidor de Inferência Triton e expõe os serviços por meio de uma API padrão, implantando com um único comando por meio de gráficos Helm em um cluster do Kubernetes.

Para Aplicações de AI Conversacional

Transcrição de Múltiplos Interlocutores

Os algoritmos clássicos de fala para texto evoluíram, tornando possível transcrever reuniões, palestras e conversas sociais ao mesmo tempo que se identifica palestrantes e rotula contribuições. O NVIDIA Riva permite a criação de transcrições precisas em call centers, reuniões de videoconferência, e a automatização de anotações clínicas durante interações entre médico e paciente. Com o Riva, também é possível personalizar modelos e pipelines para atender às suas necessidades específicas.

O NVIDIA Riva Possibilita a Fusão de Dados de Áudio e Imagem com Vários Sensores
Serviços Impulsionados por AI para Interagir com Clientes

Assistente Virtual

Os assistentes virtuais podem interagir com os clientes de uma forma quase humana, potencializar interações em centros de contato, alto-falantes inteligentes e assistentes inteligentes em veículos. Serviços impulsionados por AI, como reconhecimento de fala, compreensão de linguagem, síntese de voz e vocoding não suportam sozinhos este sistema, pois faltam componentes fundamentais, como rastreamento de diálogo. O Riva complementa esses serviços de base com componentes fáceis de usar que podem ser estendidos para qualquer aplicação.

Acelerando as Bibliotecas de Empresas e Desenvolvedores

  • Parceiros de Ecossistema
  • Bibliotecas de Desenvolvedores

Acelere por GPU os principais workflows de fala, visão e linguagem para atender aos requisitos corporativos.

Data Monsters
InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Crie modelos de deep learning de última geração acelerados por GPU com bibliotecas de AI conversacional populares.

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Principais Usos no Setor

Plataforma da Curai para Aprimorar a Experiência dos Pacientes

Aplicação com Base em Bate-Papo Melhora a Experiência do Paciente

Usando o processamento de linguagem natural, a plataforma da Curai permite que os pacientes informem seus sintomas para os médicos, acessem seus próprios prontuários e ajudem os provedores a extrair dados das conversas feitas durantes consultas para informar o melhor tratamento.

Square Utiliza AI Conversacional com GPUs

Square Utiliza AI Conversacional com GPUs

Saiba mais sobre o Square Assistant, um mecanismo de AI conversacional que capacita a comunicação de pequenas empresas e seus clientes com mais eficiência.

Processamento de Linguagem Natural para Prevenção de Fraudes

Processamento de Linguagem Natural para Prevenção de Fraudes

Estima-se que, até 2023, as empresas economizarão mais de US$200 bilhões com prevenção de fraudes. Saiba como o Processamento de Linguagem Natural (NLP - Natural Language Processing) detecta fraudes em vários canais e entenda como a American Express, o Bank of New York Mellon e o PayPal estão usando o NLP em suas estratégias de detecção de fraudes.

Comece Agora a Acelerar a AI Conversacional

Faça Treinamentos Melhores com o Kit de Ferramentas NVIDIA TAO

Execute Treinamentos nos Sistemas NVIDIA DGX A100

Simplifique a Implantação com o NVIDIA Riva

Implante no Edge na Plataforma NVIDIA EGX

Implante no Edge na Plataforma NVIDIA EGX

Crie Modelos Facilmente com o NVIDIA NeMo