Ускорение научных инноваций

Решения со скоростью 200 Гбит/с для анализа данных нового поколения

Решения NVIDIA Mellanox InfiniBand

Решения NVIDIA® Mellanox® InfiniBand используют технологию In-Network Computing, которая обрабатывает алгоритмы данных в сети, повышая производительность в 10 раз и открывая эру ориентированных на данные дата-центров. Технология обеспечивает работу вычислительных кластеров и конвергентных дата-центров любого масштаба, а также сокращает эксплуатационные затраты и сложность инфраструктур.

Адаптер NVIDIA Mellanox ConnectX-6 VPI

Адаптеры InfiniBand (VPI)

Обеспечение ведущих суперкомпьютеров и облачных платформ

Решения линейки NVIDIA Mellanox InfiniBand имеют максимальную производительность, обеспечивая работу вычислительных кластеров и конвергентных дата-центров любого масштаба и сокращая при этом эксплуатационные затраты и сложность инфраструктур.

Чипы адаптеров InfiniBand (VPI)

Рекордная производительность кластеров, сетей и СХД

Линейка ConnectX® с технологией Virtual Protocol Interconnect (VPI) поддерживает InfiniBand и Ethernet благодаря аппаратной разгрузке для оверлейных сетей (Tunneling) и обеспечивает самое высокопроизводительное и гибкое решение интерконнекта для серверов с интерфейсом PCI Express Gen3 и Gen 4.

Адаптер NVIDIA Mellanox ConnectX-6
Интеллектуальный адаптер для NVIDIA Mellanox BlueField-2

Высокопроизводительные программируемые DPU

Обеспечение безопасности облаков нового поколения

Блок обработки данных (DPU) NVIDIA Mellanox BlueField® с передовым ПО и возможностями программирования обеспечивает производительность, безопасность и функциональность дата-центров для создания инновационных сетей и ускорения ввода/вывода.

Коммутаторы InfiniBand

Высокопроизводительные вычисления со скоростью 40/56/100/200 Гбит/с

Коммутационные системы NVIDIA Mellanox InfiniBand обеспечивают максимальную скорость передачи данных и минимальную задержку благодаря интеллектуальным ускорителям для высочайшей эффективности и отказоустойчивости. Это оптимальное решение для самых мощных в мире суперкомпьютеров для HPC и ИИ.

Интеллектуальный коммутатор NVIDIA Mellanox QM8790 InfiniBand
Коммутатор NVIDIA Mellanox Quantum

InfiniBand/VPI Switch Silicon

Интерконнект для создания высокопроизводительных серверов и систем хранения

Коммутаторы NVIDIA Mellanox отличаются низким энергопотреблением, компактными размерами и интеграцией физических интерфейсов. Они предоставляют архитекторам сетей важнейшие наборы функций, благодаря чему серверы и системы хранения отвечают растущим требованиям пользователей.

Интерконнект InfiniBand

Кабели и трансиверы LinkX InfiniBand

Кабели и трансиверы Mellanox LinkX® призваны максимизировать производительность сетей для HPC, требующих соединения с высокой пропускной способностью и низкой задержкой между вычислительными и коммутационными узлами.

Кабели NVIDIA Mellanox LinkX
NVIDIA Mellanox Skyway

Шлюзы и системы маршрутизации

Использование шлюза InfiniBand-Ethernet для высокопроизводительных и облачных дата-центров

Ресурсоемкие среды и приложения дата-центров используют высокую пропускную способность InfiniBand, минимальную задержку и ускорение технологии In-Network Computing, чтобы достичь максимальной производительности и масштабируемости.

Системы дальней связи

Системы дальней связи InfiniBand

Системы дальней связи NVIDIA Mellanox обеспечивают стабильное соединение удаленных дата-центров, систем хранения и других платформ InfiniBand. MetroX-2 и MetroX расширяют доступ к высокой пропускной способности InfiniBand, встроенному соединению и продвинутой маршрутизации Remote Direct Memory Access (RDMA), а также другим передовым возможностям удаленных платформ InfiniBand, расположенных на расстоянии десятков километров.

NVIDIA Mellanox MetroX TX6240
NVIDIA Mellanox UFM

Системы управления

Платформы для анализа киберугроз на базе ИИ

Платформы NVIDIA Mellanox UFM® кардинально меняют управление сетями в дата-центре, объединяя улучшенную телеметрию в реальном времени, анализ киберугроз на базе ИИ и аналитику для поддержки масштабируемых дата-центров InfiniBand.