Ускорение всего конвейера: от распознавания речи до понимания языка и синтеза речи
Сервисы на основе ИИ обеспечивают абсолютно новую возможность для персонализированной естественной коммуникации, но имеют высокие требования к точности и задержке для работы в реальном времени. Благодаря SDK NVIDIA для разговорного ИИ разработчики могут быстро создавать и развертывать современные мультимодальные сервисы ИИ для приложений на единой унифицированной архитектуре, обеспечивая работу систем с высокой точностью и низкой задержкой при небольших начальных инвестициях.
Используйте модели разговорного ИИ из NGC™, которые более 100 000 часов обучались на различных открытых и проприетарных наборах данных на системах NVIDIA DGX™.
Настройка навыков речи, языка и зрения в избранной области с помощью набора инструментов Transfer Learning.
Развертывайте оптимизированные модели в облаке, дата-центре и на периферийных устройствах с помощью одной команды.
Ускорьте весь конвейер и проводите инференс моделей с задержкой менее 300 мс.
Осуществляйте весь конвейер разговорного ИИ, который состоит из автоматического распознавания речи для расшифровки аудио, понимания естественного языка и преобразования текста в речь с задержкой менее 300 мс для взаимодействия в реальном времени. Это позволит повысить сложность конвейера без ущерба для пользовательских возможностей.
Графический ускоритель NVIDIA A100 с тензорными ядрами установил рекорд производительности в бенчмарке MLPerf Training v0.7, продемонстрировав результат 6,53 часа для одного ускорителя в BERT и WikiText и 0,83 минуты для всей системы.
Ускорение разработки до 10 раз с помощью предварительно обученных моделей NVIDIA и набора инструментов Transfer Learning.
Получайте результаты быстрее, обучая языковые модели с миллиардами параметров с непревзойденной скоростью и масштабируемостью.
Чтобы добиться максимальной производительности, развертывайте оптимизированные сервисы разговорного ИИ в облаке, дата-центре и на периферийных устройствах.
Обеспечьте коммуникацию в реальном времени, исключив задержку сети благодаря обработке больших объемов речи и языковых данных на границе сети.
NVIDIA DGX™ A100 оснащена 8 графическими процессорами NVIDIA A100 с тензорными ядрами и представляет собой самый передовой в мире ускоритель для дата-центров. Поддержка операций TF32 в 20 раз повышает производительность инференса ИИ по сравнению с предыдущим поколением и не требует изменений в коде, а также обеспечивает ускорение в 2 раза благодаря использованию структурной разреженности для популярных моделей обработки естественного языка (NLP). NVIDIA ® NVLink® третьего поколения, NVIDIA NVSwitch™ второго поколения и NVIDIA Mellanox® InfiniBand обеспечивают высокоскоростную коммуникацию всех GPU с низкой задержкой. Это позволяет нескольким системам DGX A100 обучать большие модели с миллиардами параметров, обеспечивая максимальную точность. С открытым набором инструментов NVIDIA NeMo™ разработчики могут создавать, обучать и настраивать модели разговорного ИИ с ускорением на DGX при помощи всего нескольких строк кода.
NVIDIA EGX™ Platform обеспечивает разговорный ИИ в реальном времени и исключает задержки сети благодаря обработке больших объемов речи и языковых данных на границе сети. Используя NVIDIA TensorRT™, разработчики могут оптимизировать модели для инференса и обеспечить работу приложений разговорного ИИ с низкой задержкой и высокой пропускной способностью. Сервер для инференса NVIDIA Triton™ позволяет развернуть модели в рабочей среде. TensorRT и сервер для инференса Triton работают с NVIDIA Riva, фреймворком для разработки и развертывания мультимодального GPU-ускоренного ИИ на EGX. Riva использует TensorRT, настраивает сервер для инференса Triton и предоставляет доступ к сервисам через стандартный API, благодаря развертыванию с помощью одной команды и пакетов Helm на кластере Kubernetes.
Классические алгоритмы преобразования текста в речь развиваются и теперь позволяют расшифровывать конференции, лекции и разговоры, одновременно идентифицируя говорящих и размечая их речь. NVIDIA Riva объединяет звуковые и визуальные данные из нескольких источников в единый поток информации, который используется для продвинутых компонентов расшифровки, например визуальной диаризации, необходимой для дифференциации нескольких голосов в реальном времени.
Виртуальные помощники могут взаимодействовать с пользователями почти аналогично людям, обеспечивая коммуникацию в контактных центрах, работу интеллектуальных динамиков и помощников в автомобиле. Сервисы на основе ИИ, например с распознаванием речи, пониманием языка, синтезом голоса и отдельным кодированием речевых сигналов, не могут поддерживать такую систему, поскольку не имеют ключевых функций, таких как отслеживание диалога. Riva дополняет эти основные сервисы простыми в использовании компонентами, которые можно расширить для любого приложения.
Ускорьте основные задачи речи, зрения и языка с помощью GPU, чтобы отвечать корпоративным требованиям.
Создание современных моделей глубокого обучения с GPU-ускорением с помощью популярных библиотек разговорного ИИ.
Используя обработку естественного языка, платформа Cureai позволяет пациентам рассказать доктору о своем самочувствии, получить доступ к медицинской карте и помогает врачам извлекать данные из диалогов для полного информирования о лечении.
Узнайте о движке разговорного ИИ Square Assistant, который позволяет маленьким компаниям более эффективно общаться с клиентами.
Узнайте, как проходит цифровая трансформация компании для успешного внедрения ИИ и как обеспечить свой бизнес благодаря окупаемости инвестиций.
Stay tuned for data science news and content, delivered straight to your inbox.
Send me the latest enterprise news, announcements, and more from NVIDIA. I can unsubscribe at any time.