NVIDIA HGX-2

На основе GPU NVIDIA Tesla V100 с интерфейсом NVSwitch

Самая мощная серверная платформа в мире для глубокого и машинного обучения и высокопроизводительных вычислений (HPC)

Мы находимся на заре эпохи, в которой искусственный интеллект и высокопроизводительные вычисления (HPC) трансформируют наш мир. От беспилотных автомобилей до моделирования глобального климата – перед нами встают новые задачи, решение которых требует огромных вычислительных ресурсов. Платформа NVIDIA HGX-2 the world’s most powerful cloud server platform разработана с поддержкой вычислений произвольной точности. to solve these massive challenges. -- Она обеспечивает производительность для вычислений высокой точности для научных исследований andи поддерживает вычисления низкой точности для задач ИИ. – HGX-2 представляет собой  унифицированную, гибкую и производительную платформу для решения любых задач.

«Самый крупный в мире GPU»

Платформа HGX-2 оснащена 16 GPU NVIDIA® Tesla® V100 с интерфейсом NVIDIA NVSwitch и обеспечивает непревзойденные вычислительные возможности, пропускную способность и топологию памяти для более быстрого и эффективного обучения моделей нейросетей, анализа наборов данных, а также для более быстрого и эффективного моделирования. 16 GPU Tesla V100 работают как единый двухпетафлопсный ускоритель с общим объемом памяти 0,5 терабайта (TB). Подобная конфигурация позволяет справляться с задачами, требующими огромного объема вычислений, и представляет собой «крупнейший в мире GPU».

Крупнейший в мире GPU

AI Training: HGX-2 Replaces 300 CPU-Only Server Nodes

Workload: ResNet50, 90 epochs to solution  | CPU Server: Dual-Socket Intel Xeon Gold 6140
|  Dataset: ImageNet2012  |

Повышение производительности искусственного интеллекта нового поколения

Сложность моделей искусственного интеллекта растет, и для их работы требуется большой объем памяти и использование нескольких GPU с невероятно высокой скоростью взаимодействия. Благодаря интерфейсу NVSwitch, объединяющему все GPU, и унифицированной памяти, HGX-2 обеспечивает необходимую мощность для ускоренной тренировки искусственного интеллекта. Сервер HGX-2 способен заменить 300 серверов на базе CPU, что ведет к значительной экономии расходов, пространства и энергопотребления в дата-центре.

Machine Learning: HGX-2 544X Speedup Compared to CPU-Only Server Nodes

GPU Measurements Completed on DGX-2 | CPU: 20 CPU cluster- comparison is prorated to 1 CPU (61 GB of memory, 8 vCPUs, 64-bit platform), Apache Spark | US Mortgage Data Fannie Mae and Freddie Mac 2006-2017 | 146M mortgages | Benchmark 200GB CSV dataset | Data preparation includes joins, variable transformations

Повышение производительности машинного обучения и искусственного интеллекта нового поколения

Для достижения результатов моделям машинного обучения на базе искусственного интеллекта необходимо загружать, трансформировать и обрабатывать чрезвычайно крупные наборы данных. Благодаря 0,5 ТБ единой памяти с пропускной способность 16 ТБ/с и всесторонней коммуникации GPU с NVSwitch, платформа HGX-2 может загружать чрезвычайно крупные наборы данных и производить над ними вычисления, мгновенно получая практические результаты. С RAPIDS, открытым ПО для машинного обучения, одна платформа HGX-2 заменяет 544 сервера на базе CPU, позволяя значительно экономить пространственные и временные ресурсы.

HPC: HGX-2 Replaces up to 156 CPU-Only Server Nodes

Application(Dataset): SPECFEM3D(four material simple model), MILC(APEX Medium), and Chroma(szscl21_24_128) |
CPU Server: Dual-Socket Intel Xeon Gold 6140

Высокопроизводительный «суперузел» для HPC

Работа с HPC приложениями требует использования серверных узлов с высокой скоростью взаимодействия, способных обеспечивать выполнение большого числа операций в секунду. Повышение вычислительной плотности каждого узла значительно сокращает число требуемых серверов, приводя к серьезной экономии расходов, энергии и пространства в дата-центре. Перемножение матриц большой размерности во время HPC моделирования требует постоянной передачи данных между большим числом соседних процессоров, что делает конфигурацию GPU, объединенных интерфейсом NVSwitch, идеальным решением. Один сервер HGX-2 заменяет 60 серверов на базе CPU.

NVSwitch для вычислений с максимальной скоростью взаимодействия

Технология NVSwitch обеспечивает взаимодействие всех GPU со скоростью 2,4 ТБ/с, позволяя решать самые сложные задачи в области искусственного интеллекта и HPC. Каждый GPU имеет доступ к унифицированной HBM2 памяти объемом 0,5 ТБ для работы с самыми крупными массивами данных. NVSwitch позволяет создавать унифицированные серверные узлы, значительно повышая производительность приложений для искусственного интеллекта и HPC.

NVSwitch для вычислений с максимальной скоростью взаимодействия

Спецификации

HGX-1 HGX-2
Производительность 1 петафлопс в тензорных операциях
125 терафлопс в операциях одинарной точности
62 терафлопс в операциях двойной точности
2 петафлопс в тензорных операциях
250 терафлопс в операциях одинарной точности
125 терафлопс в операциях двойной точности
GPU 8 GPU NVIDIA Tesla V100 16 GPU NVIDIA Tesla V100
Объем памяти 256 ГБ
Пропускная способность 7,2 ТБ/с
512 ГБ
Пропускная способность 16 ТБ/с
NVIDIA CUDA® Cores 40,960 81,920
Ядра Tensor Cores 5,120 10,240
Канал передачи данных Топология Hybrid cube mesh на основе интерфейса NVLink с общей пропускной способностью 300 ГБ/с общей пропускной способности NVSwitch на основе технологии NVLink 2.4 ТБ/с общей пропускной пособсности

Эталонная архитектура HGX-1

На основе GPU NVIDIA Tesla, объединенных интерфейсом NVLink

NVIDIA HGX-1 – референсная архитектура, ставшая стандартом проектирования дата-центров, предназначенных для ускорения ИИ в облаке. Архитектура HGX-1 основывается на восьми картах Tesla V100 в форм-факторе SXM2, объединенных в топологию гибридной сетки куба (hybrid cube mesh) для масштабируемости, и обладает вычислительной мощностью в 1 петафлопс. Модульный дизайн архитектуры идеально вписывается в существующие гипермасштабируемые дата-центры и предлагает простой и быстрый путь к созданию ИИ.

Экосистема дата-центров

NVIDIA сотрудничает с ведущими мировыми производителями, чтобы способствовать быстрому развитию облачных вычислений для искусственного интеллекта. NVIDIA предоставляет своим партнерам платы для GPU, рекомендации по проектированию и ранний доступ к вычислительным технологиям для интеграции архитектуры на уровне экосистемы серверов для дата-центров.

Экосистема дата-центров

Подпишитесь на новостную рассылку по решениям для дата-центров.

Узнавайте самые свежие и актуальные новости в области высокопроизводительных вычислений, глубокого обучения и искусственного интеллекта.