PLATEFORME NVIDIA QUANTUM INFINIBAND

Performances extrêmes pour le calcul intensif dans le Cloud à tous les niveaux

Solutions de mise en réseau InfiniBand

Les charges de travail complexes exigent un traitement ultra-rapide des simulations en haute résolution, des jeux de données volumineux et des algorithmes hautement parallélisés. Alors que ces exigences de calcul continuent de croître, NVIDIA Quantum InfiniBand constitue la seule plateforme de calcul en réseau entièrement déchargeable au monde, ce qui lui permet de fournir des performances inégalées dans les domaines du calcul à haute performance (HPC), de l’IA et des infrastructures Hyperscale dans le Cloud, tout en réduisant à la fois les coûts et la complexité.

Adaptateurs InfiniBand

Adaptateurs InfiniBand

Les adaptateurs de canal hôte (HCA) de la gamme InfiniBand fournissent une latence ultra-faible, un rendement extrêmement élevé et d’innovants moteurs de NVIDIA pour le calcul en réseau qui délivrent l’accélération, l’évolutivité et les fonctionnalités technologiques requises pour traiter les charges de travail modernes.

Processeurs de traitement des données (DPU)

Processeurs de traitement des données (DPU)

Le DPU NVIDIA® BlueField® combine des capacités avancées de calcul intensif, des performances élevées pour la mise en réseau et une programmabilité complète qui facilitent la mise en œuvre de solutions définies par logiciel et accélérées matériellement pour les charges de travail les plus intensives. Du calcul accéléré par l’IA au calcul intensif dans le Cloud, BlueField redéfinit les possibilités qui s’offrent à vous.

Commutateurs InfiniBand

Commutateurs InfiniBand

Les systèmes de commutation InfiniBand fournissent un maximum de performances avec une importante densité de ports. Des capacités innovantes telles que le protocole SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol) de NVIDIA et des fonctionnalités de gestion avancées comme les capacités auto-réparatrices de réseau, la qualité de service, la cartographie virtuelle améliorée des voies et les moteurs d’accélération de NVIDIA pour le calcul en réseau fournissent des performances accrues pour les applications industrielles, scientifiques et d’IA.

Routeurs et systèmes de passerelle

Routeurs et systèmes de passerelle

Les systèmes InfiniBand fournissent l’évolutivité et l’isolation du sous-réseau les plus élevées de l’industrie grâce à des routeurs InfiniBand et à des systèmes de passerelle InfiniBand>Ethernet. Ceux-ci offrent une méthode évolutive et efficace pour connecter des Data Centers InfiniBand à des infrastructures Ethernet.

Câbles et émetteurs-récepteurs LinkX InfiniBand

Câbles et émetteurs-récepteurs

Les câbles et les émetteurs-récepteurs LinkX® ont été conçus pour maximiser les performances des réseaux HPC, qui nécessitent la mise en œuvre de connexions fiables à haut débit et à faible latence entre les éléments InfiniBand.

Solutions InfiniBand à hautes capacités

Calcul en réseau

Calcul en réseau

Le protocole SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) de NVIDIA permet de transférer les opérations de communication collectives du CPU jusqu’au réseau de commutation. Cette approche innovante réduit le volume des données qui transitent sur le réseau, ce qui a pour effet de réduire considérablement le délai des communications MPI (Message Passing Interface) et d’optimiser l’efficacité du Data Center. 

Structure réseau auto-réparatrice

Structure réseau auto-réparatrice

Les clusters d’IA et de HPC nécessitent une technologie d’interconnexion aussi fiable que rapide. L’architecture NVIDIA InfiniBand dispose d’une structure réseau auto-réparatrice qui permet de surmonter les défaillances de liens, accélérant ainsi jusqu’à 1 000 fois les délais de rétablissement du réseau par rapport à d’autres solutions logicielles. Cette structure réseau auto-réparatrice tire profit du système d’intelligence intégré aux commutateurs InfiniBand de nouvelle génération.

Qualité de service

Qualité de service

InfiniBand est la seule solution d’interconnexion à hautes performances qui propose des fonctionnalités éprouvées de qualité de service (QoS), incluant notamment un contrôle avancé de l’encombrement et un routage adaptatif, à l’efficacité réseau inégalée.

Topologies réseau

Topologies réseau

InfiniBand met en œuvre un système de gestion centralisée permettant de prendre en charge n’importe quelle topologie. Les topologies les plus populaires incluent notamment Fat Tree, Hypercubes, Torus (en configuration multidimensionnelle) et Dragonfly+. Divers algorithmes de routage spécialement optimisés fournissent des performances réseau avancées, ce qui peut s’avérer particulièrement utile lors de la conception d’une nouvelle topologie pour des modèles de communication spécifiques.

Solutions logicielles pour des performances optimales

MLNX_OFED

Les performances du logiciel OFED d’OpenFabrics Alliance (www.openfabrics.org) ont été renforcées par le biais d’un processus de développement collaboratif et des tests méticuleux réalisés par les principaux fournisseurs de solution d’entrée/sortie (E/S) à hautes performances. NVIDIA MLNX_OFED est une version d’OFED testée et empaquetée par NVIDIA.

HPC-X

NVIDIA HPC-X® est une suite logicielle complète reposant sur MPI et SHMEM/PGAS. HPC-X tire profit des moteurs d’accélération et de calcul en réseau InfiniBand pour optimiser la recherche et les applications du secteur.

UFM

La plateforme NVIDIA UFM® permet aux administrateurs de Data Centers d’approvisionner, surveiller et gérer efficacement, mais aussi de dépanner de manière proactive leur infrastructure réseau InfiniBand.

MAGNUM IO

NVIDIA Magnum IO s’appuie sur des modules logiciels pour le stockage, la mise en réseau, le calcul en réseau et la gestion des communications E/S pour simplifier et accélérer les transferts, l’accès et la gestion des données sur les systèmes multi-GPU et multi-nœuds. Magnum IO est une solution logicielle qui permet aux topologies matérielles de mise en réseau et aux GPU de NVIDIA de fournir un rendement optimal ainsi qu’une réduction significative de la latence.

Configurez votre cluster

Suivez des cours de mise en réseau

Vous voulez passer commande ?

Ressources

  • VIDÉOS
  • PRÉSENTATIONS DE SOLUTIONS