GPU NVIDIA V100 С ТЕНЗОРНЫМИ ЯДРАМИ

Первый GPU с тензорными ядрами

Добро пожаловать в эпоху искусственного интеллекта.

Поиск полезной информации, которая скрыта в огромных объемах данных, может кардинально изменить целые отрасли, начиная от персонализированного подхода к лечению рака и заканчивая созданием виртуальных помощников, способных свободно общаться с человеком, и прогнозированием опасных ураганов.


NVIDIA® V100 с тензорными ядрами — это самый технически продвинутый в мире GPU для дата-центров, предназначенный для ускорения ИИ, высокопроизводительных вычислений (HPC), обработки данных и работы с графикой. Созданный на базе архитектуры NVIDIA Volta он доступен в конфигурациях 16 и 32 Гб и обеспечивает производительность на уровне 32 процессоров. Специалисты по data science, ученые и разработчики теперь могут тратить меньше времени на оптимизацию ресурсов памяти и сконцентрироваться на достижениях в области ИИ.

Работайте с задачами ИИ и НРС в виртуальной среде, обеспечив безопасность и простое управление при помощи ПО NVIDIA Virtual Compute Server (vCS).

Производительность тренировки алгоритмов в 32 раза выше, чем на CPU

Тренировка алгоритмов ResNet-50, набор данных: ImageNet2012, размер пакета 256 | Сравнение NVIDIA V100: сервер NVIDIA DGX-2™, 1 ускоритель V100 SXM3-32 Гб, фреймворк MXNet 1.5.1, контейнер = 19.11-PY3, операции с различной точностью, производительность: 1,525 изображений/с | Сравнение Intel: Supermicro SYS-1029GQ-TRT, Intel Gold 6240 с частотой 2 Ггц/3,9 Ггц в режиме турбо, Tensorflow 0.18, FP32 (доступна только эта точность), пропускная способность: 48 изображений/с

Тренировка моделей ИИ

Специалисты по data science берутся за все более сложные задачи: от распознавания речи и разработки виртуальных ассистентов до обучения беспилотных автомобилей вождению. Решение таких задач требует обучения все более сложных моделей глубокого обучения в сжатые сроки.

Оснащенный 640 тензорными ядрами ускоритель V100 — это первый в мире GPU, преодолевший ограничение 100 терафлопс в задачах глубокого обучения. Технология NVIDIA NVLink™ нового поколения объединяет несколько GPU V100 и обеспечивает пропускную способность до 300 Гб/с для создания самых мощных в мире вычислительных серверов. Теперь тренировку моделей ИИ, которая занимала недели на системах предыдущего поколения, можно завершить за несколько дней.

УЗНАЙТЕ, КАК УСКОРИТЬ МОДЕЛИ ИИ БЛАГОДАРЯ ПОДДЕРЖКЕ ОПЕРАЦИЙ РАЗЛИЧНОЙ ТОЧНОСТИ В ТЕНЗОРНЫХ ЯДРАХ

Производительность инференса в 24 раза выше, чем на сервере с процессором

Инференс BERT, набор данных: SQuADv1.1, размер пакета 1, длина последовательности 128 | Сравнение NVIDIA V100: Supermicro SYS-4029GP-TRT, 1 ускоритель V100-PCIE-16GB, тестовый контейнер, операции с различной точностью, фреймворк NVIDIA TensorRT™ 6.0, производительность: 557 предложений/с | Сравнение Intel: Intel Gold 6240 с частотой 2,6 Ггц/3,9 Ггц в режиме турбо, FP32 (доступна только эта точность), OpenVINO MKL-DNN v0.18, производительность: 23,5 предложения/с

Инференс ИИ

Чтобы открыть доступ к актуальной информации, сервисам и продуктам, компании начали использовать искусственный интеллект. Однако отвечать требованиям пользователей — сложная задача. К примеру, компания с крупнейшей гипермасштабируемой инфраструктурой подсчитала, что необходимо удвоить мощность дата-центра, если каждый пользователь будет использовать сервис по распознаванию речи всего три минуты в день.

Графический ускоритель V100 призван обеспечить максимальную производительность существующих гипермасштабируемых серверов. Так как в основе V100 лежит ИИ, производительность ускорителя в задачах инференса в 47 раз выше, чем у процессора. Подобный скачок производительности и энергоэффективности позволяет расширить масштабы применения сервисов с ИИ.

Один серверный узел с V100 заменяет 135 узлов на базе CPU

Приложение (набор данных): MILC (APEX Medium) и Chroma (szscl21_24_128) | Сервер на базе процессора: двухсокетный сервер на базе Intel Xeon Platinum 8280 (Cascade Lake)

Высокопроизводительные вычисления (HPC)

HPC — это фундамент современной науки. Ученые постоянно используют требовательные вычислительные системы для моделирования и предсказания событий в мире: от прогнозирования погоды до создания новых лекарств. ИИ расширяет возможности HPC, позволяя ученым анализировать большие объемы данных и получать полезную информацию, даже если моделирование не может создать полную картину реального мира.

Графический ускоритель V100 призван обеспечить комбинацию задач ИИ и HPC. Он представляет собой платформу для систем HPC, которая обеспечивает отличную производительность как в вычислениях для научного моделирования, так и в обработке данных для извлечения ценной информации. Благодаря объединению ядер NVIDIA CUDA®и тензорных ядер в единой архитектуре один сервер на базе GPU V100 способен заменить сотни традиционных серверов на основе процессора в нагрузках ИИ и HPC. Теперь любой разработчик или ученый может позволить себе суперкомпьютер с ИИ для решения самых сложных задач.

GPU для дата-центра

Tesla V100 c NVLink для дата-центра

NVIDIA V100 C NVLINK

Непревзойденная производительность в задачах глубокого обучения.

Tesla V100 c PCIe для дата-центра

NVIDIA V100 C PCle

Универсальность для всех типов нагрузок.

Спецификации NVIDIA V100

 

V100 c NVLink

V100 c PCIe

V100S c PCIe

ПРОЗВОДИТЕЛЬНОСТЬ
с NVIDIA GPU Boost

Операции с двойной точностью
7,8 терафлопса

Операции с одинарной точностью
15,7 терафлопса

Задачи глубокого обучения
125 терафлопс

Операции с двойной точностью
7 терафлопс

Операции с одинарной точностью
14 терафлопс

Задачи глубокого обучения
112 терафлопс

Операции с двойной точностью
8,2 терафлопса

Операции с одинарной точностью
16,4 терафлопса

Задачи глубокого обучения
130 терафлопс

ПРОПУСКНАЯ СПОСОБНОСТЬ
двунаправленный интерфейс

NVLink
300 Гб/с

PCIe
32 Гб/с

PCIe
32 Гб/с

СТЕКОВАЯ ПАМЯТЬ
CoWoS HBM2

ОБЪЕМ
32/16 Гб HBM2

ПРОПУСКНАЯ СПОСОБНОСТЬ
900 Гб/с

ОБЪЕМ
32 Гб HBM2

ПРОПУСКНАЯ СПОСОБНОСТЬ
1134 Гб/с

ЭНЕРГОПОТРЕБЛЕНИЕ
Максимальное энергопотребление


300 Ватт


250 Ватт

Бесплатное тестирование

Самые быстрые в мире графические ускорители для HPC и
глубокого обучения.

ГДЕ КУПИТЬ

Найдите партнера по ускоренным вычислениям через
сеть партнеров NVIDIA (NPN).