Разговорный ИИ

Ускорение всего конвейера: от распознавания речи до понимания языка и синтеза речи

Сервисы на основе ИИ обеспечивают абсолютно новую возможность для персонализированной естественной коммуникации, но имеют высокие требования к точности и задержке для работы в реальном времени. Благодаря SDK NVIDIA для разговорного ИИ разработчики могут быстро создавать и развертывать современные сервисы ИИ для приложений на единой унифицированной архитектуре, обеспечивая работу систем с высокой точностью и низкой задержкой при небольших начальных инвестициях.

 
Модели разговорного ИИ из NGC

Высочайшая точность

Используйте модели разговорного ИИ из NGC, которые более 100 000 часов обучались на различных открытых и проприетарных наборах данных на системах NVIDIA DGX.

Решения для развития интерактивных навыков, аналогичных человеческим

Гибкая настройка

Настраивайте навыки речи и языка на каждом этапе процесса: от данных до модели и конвейера. 

Развертывайте оптимизированные модели в облаке и дата-центре

Масштабируемое развертывание

Легко масштабируйте свои приложения для обработки сотен и тысяч одновременных запросов.

Полноценное ускорение, позволяющее выполнять инференс с задержкой менее 300 мс

Высокая производительность в реальном времени

Выполняйте полный инференс моделей с задержкой менее 300 миллисекунд.

Введение в разговорный ИИ

Скачайте нашу электронную книгу и узнайте, как работает разговорный ИИ и как он применяется в промышленности.

Сквозное ускорение

Максимальное ускорение конвейера

Инференс за доли секунды

Осуществляйте весь конвейер разговорного ИИ, который состоит из автоматического распознавания речи для расшифровки аудио, понимания естественного языка и преобразования текста в речь с задержкой менее 300 мс для взаимодействия в реальном времени. Это позволит повысить сложность конвейера без ущерба для пользовательских возможностей.

Решения NVIDIA для
приложений разговорного ИИ

Решения для обучения

Легкая разработка моделей с NVIDIA NeMo

Легкая разработка моделей с NVIDIA NeMo

Создавайте, обучайте и настраивайте современные модели разговорного ИИ с помощью открытого инструментария NVIDIA NeMo™.

Более умное обучение – с инструментарием NVIDIA TAO

Более умное обучение – с инструментарием NVIDIA TAO

Ускорение разработки до 10 раз с помощью предварительно обученных моделей NVIDIA и инструментария NVIDIA TAO.

NVIDIA DGX A100 для инфраструктуры с ИИ

Обучайте модели на системах NVIDIA DGX A100

Получайте результаты быстрее, обучая языковые модели с миллиардами параметров с непревзойденной скоростью и масштабируемостью.

Решения для развертывания

NVIDIA Riva – сервисы разговорного ИИ

Упрощение развертывания с помощью NVIDIA Riva

Чтобы добиться максимальной производительности, развертывайте оптимизированные сервисы разговорного ИИ в облаке, дата-центре и на периферийных устройствах.

Технологии NVIDIA для коммуникации в реальном времени

Развертывание на периферии с платформой NVIDIA EGX

Обеспечьте коммуникацию в реальном времени, исключив задержку сети благодаря обработке больших объемов речи и языковых данных на границе сети.

Обучение и развертывание на специализированных системах

Масштабирование обучения

NVIDIA DGX A100 оснащен 8 графическими процессорами NVIDIA A100 с тензорными ядрами и представляет собой самый передовой в мире ускоритель для дата-центров. Поддержка операций TF32 в 20 раз повышает производительность инференса ИИ по сравнению с предыдущим поколением и не требует изменений в коде, а также обеспечивает ускорение в 2 раза благодаря использованию структурной разреженности для популярных моделей обработки естественного языка (NLP). Особенности конструкции процессора A100 позволяют нескольким системам DGX A100 обучать большие модели с миллиардами параметров, обеспечивая максимальную точность. Для распределенного обучения моделей разговорного ИИ на процессорах A100 компания NVIDIA предоставляет инструментарии NeMo и TAO.

NVIDIA DGX A100: универсальная система для инфраструктуры ИИ
NVIDIA DGX A100: универсальная система для инфраструктуры ИИ

Развертывание на периферии

Платформа NVIDIA EGX позволяет реализовать разговорный ИИ в реальном времени без задержки сети благодаря обработке больших объемов речевых и языковых данных на границе сети. Используя NVIDIA TensorRT, разработчики могут оптимизировать модели для инференса и обеспечить работу приложений разговорного ИИ с низкой задержкой и высокой пропускной способностью. Сервер для инференса NVIDIA Triton позволяет развернуть модели в рабочей среде. TensorRT и сервер для инференса Triton работают с NVIDIA Riva, фреймворком для разработки и развертывания GPU-ускоренного ИИ на EGX. Riva использует TensorRT, настраивает сервер для инференса Triton и предоставляет доступ к сервисам через стандартный API благодаря развертыванию с помощью одной команды и пакетов Helm на кластере Kubernetes.

Приложения разговорного ИИ

Расшифровка нескольких голосов

Классические алгоритмы преобразования текста в речь развиваются и теперь позволяют расшифровывать конференции, лекции и разговоры, одновременно идентифицируя говорящих и размечая их речь.  NVIDIA Riva позволяет создавать точные расшифровки записей видеозвонков, звонков в колл-центрах и автоматизировать ведение клинических заметок во время общения врача с пациентом. С помощью Riva вы можете настраивать модели и конвейеры в соответствии с конкретными потребностями.

NVIDIA Riva объединяет аудио и визуальные данные из разных источников
Сервисы ИИ для взаимодействия с клиентами

Виртуальный помощник

Виртуальные помощники могут взаимодействовать с пользователями почти аналогично людям, обеспечивая коммуникацию в контактных центрах, работу интеллектуальных динамиков и помощников в автомобиле. Сервисы на основе ИИ, например с распознаванием речи, пониманием языка, синтезом голоса и кодированием речевых сигналов, не могут по отдельности поддерживать такую систему, поскольку не имеют ключевых функций, таких как отслеживание диалога. Riva дополняет эти основные сервисы простыми в использовании компонентами, которые можно расширить для любого приложения.

Ускорение операций и библиотеки для разработчиков

  • Партнеры экосистемы
  • Библиотеки для разработчиков

Ускорьте основные задачи речи, зрения и языка с помощью GPU, чтобы отвечать корпоративным требованиям.

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

Создание современных моделей глубокого обучения с GPU-ускорением с помощью популярных библиотек разговорного ИИ.

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

Примеры из практики

Платформа Curai для улучшения пользовательских возможностей

Чат-приложение расширяет возможности пациентов

Используя обработку естественного языка, платформа Curai позволяет пациентам рассказать доктору о своем самочувствии, получить доступ к медицинской карте и помогает врачам извлекать данные из диалогов для полного информирования о лечении.

Square совершенствует разговорный ИИ с помощью GPU

Square совершенствует разговорный ИИ с помощью GPU

Узнайте о движке разговорного ИИ Square Assistant, который позволяет маленьким компаниям более эффективно общаться с клиентами.

Обработка естественного языка для предотвращения мошенничества

Обработка естественного языка для предотвращения мошенничества

По оценкам специалистов, к 2023 году компании сэкономят более 200 миллиардов долларов благодаря мерам по предотвращению мошенничества. Узнайте, почему обработка естественного языка так важна для финансовой сферы, как она помогает обнаруживать подозрительные действия по различным каналам, и как American Express, Bank of New York Mellon и PayPal используют ее в своих превентивных стратегиях.

Начните ускорение разговорного ИИ

Обучайте умнее – с помощью инструментария NVIDIA TAO

Обучайте модели на системах NVIDIA DGX A100

Упрощение развертывания с помощью NVIDIA Riva

Развертывание приложений на периферии на платформе NVIDIA EGX

Развертывание приложений на периферии на платформе NVIDIA EGX

Простое создание моделей с NVIDIA NeMo