Архитектура NDR 400G InfiniBand

Экстремальная производительность для экзафлопсных вычислений эры ИИ

Рекордная производительность в сетевых коммуникациях

Седьмое поколение архитектуры NVIDIA® Mellanox® NDR 400Gb/s InfiniBand гарантирует разработчикам и исследователям ИИ максимальную производительность сети для решения самых сложных мировых задач. NVIDIA Mellanox InfiniBand® обеспечивает поддержку программно определяемых сетей, ускорение технологии In-Network Computing, удаленный прямой доступ к памяти (RDMA), высокую скорость передачи данных, а также включает в себя инновационные возможности по сравнению с предыдущим поколением NDR InfiniBand.

 

Представляем NVIDIA NDR 400 Gb/s InfiniBand (1:48)

Расширение возможностей HPC, суперкомпьютеров и приложений для ИИ

Ускоренная технология In-Network Computing

Современным высокопроизводительным вычислительным (HPC), ИИ- и гипермасштабируемым инфраструктурам требуется быстрый обмен данными и умные сети для осуществления более эффективного и ускоренного анализа и сложного моделирования. NVIDIA Mellanox InfiniBand улучшает и расширяет применение технологии In-Network Computing с помощью предварительно сконфигурированных и программируемых вычислительных движков, таких как третье поколение SHARPv3, MPI Tag Matching, MPI All-to-All и программируемых ядер, обеспечивающих оптимальные затраты на узел и повышение эффективности инвестиций (ROI).

Технология In-Network Computing, ускоренная с помощью архитектуры NVIDIA Mellanox InfiniBand
Дата-центр на основе архитектуры NVIDIA Mellanox NDR InfiniBand с технологией SHARPv3

Неограниченная масштабируемость

NDR InfiniBand с технологией NVIDIA Mellanox SHARPv3 третьего поколения позволяет практически неограниченно масштабировать большие объемы данных через сеть и поддерживает выполнение до 64 одновременных потоков. Это позволяет ускорить ИИ-задачи в 32 раза по сравнению с прошлым поколением HDR InfiniBand. Аппаратные движки MPI All-to-All и MPI Tag Matching, наряду с улучшенным контролем перегрузок, адаптивной маршрутизацией и «самовосстанавливающимися»‎ сетями, позволяют усовершенствовать ИИ- и HPC-кластеры и ускорить их.

Высокая скорость передачи данных

Канальный адаптер хоста

Канальные адаптеры на стороне сервера (HCA) NDR InfiniBand с PCIe Gen4 и Gen5 поддерживают различные форм-факторы и одиночные и двойные порты 400 Гбит/с для NDR, порты 200 Гбит/c для NDR200 и более низкие скорости.

NDR InfiniBand HCA поддерживают усовершенствованную In-Network Computing с аппаратными движками MPI All-to-All и MPI Tag Matching и улучшенный QoS, в том числе адаптивную маршрутизацию, контроль перегрузок, а также другие технологии. HCA также включают в себя программируемые вычислительные ядра, которые позволяют разгрузить алгоритмы предварительной обработки данных и пути приложений в сеть, обеспечивая более высокую производительность, масштабируемость и усиливая взаимодействие между вычислениями и коммуникациями.

Edge-коммутаторы

Семейство edge-коммутаторов NDR InfiniBand получит 64 порта для NDR или 128 портов для NDR200 на 32 физических OSFP-разъемах. Компактные edge-коммутаторы высотой 1U имеют воздушное и жидкостное охлаждение, которым можно управлять как локально, так и извне.

Edge-коммутаторы семейства NDR InfiniBand обладают совокупной двунаправленной пропускной способностью в 51,2 Тбит/с с рекордной производительностью более 66,5 миллиардов пакетов в секунду. Стоечное решение NDR InfiniBand, граничный коммутатор, обеспечивает поддержку Fat Tree, DragonFly+, Torus, Hypercube и других топологий.

Модульные коммутаторы

Семейство модульных коммутаторов NDR InfiniBand обеспечивает следующие конфигурации портов:

  • 2 048 портов NDR (400 Гбит/с) или 4 096 портов NDR200 (200 Гбит/с)
  • 1 024 портов NDR (400 Гбит/с) или 2 048 портов NDR200 (200 Гбит/с)

Самый большой модульный коммутатор обеспечивает суммарную двунаправленную пропускную способность в 1,64 петабита в секунду, что в 5 раз выше, чем у предыдущего поколения.

Модульный коммутатор среднего размера обеспечивает суммарную двунаправленную пропускную способность 819 Тбит/c.

Трансиверы и кабели

Варианты подключения NDR InfiniBand включают в себя различные трансиверы и коннекторы MPO, активные медные кабели (ACC) и кабели прямого медного подключения (DAC) с 1*2 и 1*4 сплиттерами, что обеспечивает максимальную гибкость для применения любой топологии с наилучшей производительностью.

Ведущие в мире показатели производительности сетей, масштабируемости и эффективности

Производительность

  • Пропускная способность каждого порта 400 Гбит/с
  • 64 порта 400 Гбит/с или 128 портов 200 Гбит/c в одном коммутаторе
  • 2 048 портов 400 Гбит/с или 4 096 портов 200 Гбит/c в одном модульном коммутаторе
  • Более 66,5 млрд пакетов в секунду (двунаправленных) на одном коммутаторе

Бьем собственные рекорды

  • Двукратная пропускная способность порта по сравнению с HDR
  • В 3 раза большая плотность портов коммутатора по сравнению с HDR
  • Ускорение ИИ-задач на одном коммутаторе в 32 раза по сравнению HDR
  • Более миллиона узлов 400 Гбит/c в коммутаторе уровня 4 (за три «прыжка») DragonFly и сеть, в 6,5 раз быстрее, чем HDR InfiniBand

Основные характеристики

  • Полная разгрузка сетей
  • RDMA, GPUDirect® RDMA, GPUDirect Storage
  • Программируемые движки с функцией In-Network Computing
  • Аппаратное ускорение All-to-All MPI
  • Аппаратное укорение Tag Matching MPI
  • NVIDIA Mellanox SHARPv3
  • Усовершенствованная адаптивная маршрутизация, контроль перегрузок и QoS
  • «Самовосстанавливающиеся» сети

Ознакомьтесь с полным обзором архитектуры и узнайте подробнее о NDR.