Суперкомпьютер NVIDIA HGX

Самая производительная комплексная платформа для задач ИИ.

Специально разработана для конвергенции систем моделирования, анализа данных и ИИ

Огромные наборы данных, большие модели и сложное моделирование требуют нескольких GPU с быстрым межсоединением и ускоренным программным стеком. Суперкомпьютерная платформа NVIDIA HGX™ обеспечивает все возможности GPU NVIDIA, NVIDIA® NVLink®, NVIDIA InfiniBand, а также полностью оптимизированного программного стека NVIDIA для ИИ и HPC из каталога NGC™ для максимальной производительности приложений. Благодаря комплексной производительности и гибкости NVIDIA HGX позволяет исследователям и ученым объединять моделирование, анализ данных и ИИ для успеха научных исследований.

Платформа для ускорения вычислений

NVIDIA HGX объединяет в себе GPU NVIDIA A100 с тензорными ядрами и высокоскоростное межсоединение, что позволяет строить самые производительные серверы в мире. Благодаря 16 GPU A100, HGX обладает до 1,3 ТБ памяти GPU и более 2 ТБ/с пропускной способности, обеспечивая беспрецедентное ускорение.

Благодаря Tensor Float 32 (TF32) и ускорению высокопроизводительных вычислений до 2,5 раз с FP64 HGX увеличивает производительность ИИ до 20 раз по сравнению с предыдущими поколениями. Конфигурация HGX позволяет достичь невероятных 10 петафлопс, что делает ее самой мощной серверной платформой для ИИ и HPC.

Полностью протестированная, простая в развертывании системная плата HGX интегрируется в серверы партнеров для обеспечения надежной производительности. Платформа HGX поставляется в виде отдельных плат с 4 или 8 GPU и ускорителями SXM. Она также доступна в конфигурации GPU PCIe для модульного развертывания и высочайшей вычислительной производительности основных серверов.

HGX Stack

NVIDIA HGX A100 на базе 8 GPU

NVIDIA HGX A100 на базе 8 GPU

NVIDIA HGX A100 на базе 4 GPU

NVIDIA HGX A100 на базе 4 GPU

задачах глубокого обучения

Производительность в задачах машинного обучения

В 2 раза быстрее, чем A100 40GB, по результатам бенчмарка анализа больших данных

2X Faster than A100 40GB on Big Data Analytics Benchmark

Для сбора необходимой информации моделям машинного обучения необходимо загружать, трансформировать и обрабатывать чрезвычайно крупные наборы данных. Благодаря до 1,3 TБ единой памяти и межсоединению NVSwitch платформа HGX на базе GPU A100 80GB может загружать большие наборы данных и производить над ними вычисления, мгновенно получая практические результаты.

Во время бенчмарка анализа больших данных A100 80GB передавал информацию до 2 раз быстрее, чем A100 40GB. Графический процессор идеально подходит для рабочих нагрузок со стремительно растущими размерами наборов данных.

Производительность в задачах HPC

HPC-приложения должны выполнять огромные объемы вычислений в секунду. Повышение вычислительной плотности каждого узла значительно сокращает число требуемых серверов, что приводит к серьезной экономии расходов, электроэнергии и пространства в дата-центре. Перемножение матриц большой размерности для моделирования требует постоянной передачи данных между множеством соседних процессоров, что делает конфигурацию GPU, объединенных интерфейсом NVIDIA NVLink, идеальным решением. Приложения для высокопроизводительных вычислений также могут использовать TF32 в A100 для достижения до 11 раз большей пропускной способности за четыре года для точных операций.

HGX A100 на базе GPU A100 80GB обеспечивает увеличение пропускной способности в 2 раза по сравнению с A100 40GB на Quantum Espresso - симуляторе материалов, ускоряющим передачу данных.

В 11 раз большая производительности в HPC за четыре года

Топ приложение HPC​

В 11 раз большая производительности в HPC  за четыре года

Повышение производительности до 1,8 х для HPC приложений

Quantum Espresso​

Повышение производительности до 1,8 х  для HPC приложений

Спецификации HGX A100

NVIDIA HGX поставляется в виде отдельных плат с 4 или 8 A100 GPUs и конфигурациями памяти GPU 40 или 80 ГБ. В конфигурации с 4 GPU ускорители соединяются интерфейсом NVIDIA NVLink®, а в конфигурации с 8 GPU — коммутатором NVSwitch. Две платы NVIDIA HGX A100 с 8 GPU можно объединить с помощью технологии межсоединения NVSwitch, чтобы создать единый узел с 16 GPU.

Платформа HGX также доступна в форм-факторе PCIe с объемом памяти GPU 40 или 80 ГБ для модульного развертывания и высочайшей вычислительной производительности основных серверов.

Такое программно-аппаратное решение создает основу для мощной суперкомпьютерной платформы.

  A100 PCIe 4 GPU 8 GPU 16 GPU
GPU 1x NVIDIA A100 PCIe HGX A100 4-GPU HGX A100 8-GPU 2x HGX A100 8-GPU
Форм-фактор PCIe 4 ускорителя NVIDIA A100 SXM 8 ускорителей NVIDIA A100 SXM 16 ускорителей NVIDIA A100 SXM
HPC и ИИ-вычисления (FP64/TF32*/FP16*/INT8*) 19,5 терафлопс/312 терафлопс*/624 терафлопс*/1,2 POPS* 78 терафлопс/1,25 петафлопса*/2,5 петафлопса*/5 POPS 156 терафлопс/2,5 петафлопса*/5 петафлопс*/10 POPS * 312 терафлопс/5 петафлопс*/10 петафлопс*/20 POPS*
Память 40 или 80 ГБ на один GPU До 320 ГБ До 640 ГБ До 1280 ГБ
NVLink Третье поколение Третье поколение Третье поколение Третье поколение
NVSwitch - -/td> Второе поколение Второе поколение
Пропускная способность NVSwitch - - 600 Гбит/с 600 Гбит/с
Общая пропускная способность 600 Гбит/с 2,4 Тбит/с 4,8 Тбит/с 9,6 Тбит/с

Сетевые решения NVIDIA для ускорения HGX

Вы можете использовать сетевые решения NVIDIA на HGX для ускорения и разгрузки передачи данных, не допуская простоев вычислительных ресурсов. Интеллектуальные адаптеры и коммутаторы снижают задержку, повышают эффективность, безопасность и упрощают автоматизацию дата-центра для ускорения работы приложений.

Дата-центр — это новая платформа вычислений, а высокопроизводительные вычислительные сети играют ведущую роль в ускорении работы приложений по всей инфраструктуре. NVIDIA InfiniBand предлагает широкую линейку решений для программно-определяемых сетей, ускорения In-Network Computing, технологии удаленного прямого доступа к памяти (RDMA) и высокой скорости передачи данных.

Референсные архитектуры HGX-1 и HGX-2

На базе GPU NVIDIA и NVLINK

NVIDIA HGX-1 и HGX-2 — это референсные архитектуры, которые стали стандартом проектирования дата-центров для ускорения ИИ и HPC. Референсные архитектуры HGX основаны на NVIDIA V100 в форм-факторе SXM2, объединенных технологиями NVLink и NVSwitch, и имеют модульную конструкцию, которая оптимально подходит для гипермасштабируемых и гибридных дата-центров. Обеспечивая производительность 2 петафлопса, архитектуры предоставляют простой путь к ускорению ИИ и HPC.

На базе GPU NVIDIA и NVLINK

Спецификации

HGX-1
с 8 GPU  
HGX-2
с 16 GPU  
Графические процессоры 8x NVIDIA V100 16x NVIDIA V100
Производительность в вычислениях ИИ 1 петафлопс (в операциях FP16) 2 петафлопса (в операциях FP16)
Память 256 Гб 512 Гб
NVLink Второго поколения Второго поколения
NVSwitch Нет Да
NVSwitch GPU-to-GPU Bandwidth Нет 300 Гбит/с
Общая пропускная способность 2,4 Тбит/с 4,8 Тбит/с

Инновации в архитектуре NVIDIA Ampere

Прочитайте статью и узнайте об инновациях архитектуры NVIDIA Ampere и ее реализации в GPU NVIDIA A100.