Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Adoptez une mise en réseau de bout en bout à hautes performances pour le calcul scientifique, l’IA et les Data Centers dans le Cloud.
Les charges de travail complexes exigent un traitement ultra-rapide des simulations en haute résolution, des jeux de données volumineux et des algorithmes hautement parallélisés. Alors que ces exigences de calcul continuent de croître, NVIDIA Quantum InfiniBand constitue la seule plateforme de calcul en réseau entièrement déchargeable au monde, ce qui lui permet de fournir des performances inégalées dans les domaines du calcul à haute performance (HPC), de l’IA et des infrastructures Hyperscale dans le Cloud, tout en réduisant à la fois les coûts et la complexité.
Les adaptateurs de canal hôte (HCA) de la gamme NVIDIA® ConnectX® InfiniBand fournissent une latence ultra-faible, un rendement extrêmement élevé et d’innovants moteurs de NVIDIA pour le calcul en réseau qui délivrent l’accélération, l’évolutivité et les fonctionnalités technologiques requises pour traiter les charges de travail modernes.
Le DPU NVIDIA® BlueField® combine des capacités avancées de calcul intensif, des performances élevées pour la mise en réseau et une programmabilité complète qui facilitent la mise en œuvre de solutions définies par logiciel et accélérées matériellement pour les charges de travail les plus intensives. Des applications d’IA accélérées par GPU jusqu’au calcul scientifique en passant par le calcul intensif dans le Cloud, BlueField redéfinit les possibilités qui s’offrent à vous.
Les systèmes de commutation InfiniBand fournissent un maximum de performances avec une importante densité de ports. Des capacités innovantes telles que le protocole SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol) de NVIDIA et des fonctionnalités de gestion avancées comme les capacités auto-réparatrices de réseau, la qualité de service, la cartographie virtuelle améliorée des voies et les moteurs d’accélération de NVIDIA pour le calcul en réseau fournissent des performances accrues pour les applications industrielles, scientifiques et d’IA.
Les systèmes InfiniBand fournissent l’évolutivité et l’isolation du sous-réseau les plus élevées de l’industrie grâce à des routeurs InfiniBand et à des systèmes de passerelle InfiniBand>Ethernet. Ceux-ci offrent une méthode évolutive et efficace pour connecter des Data Centers InfiniBand à des infrastructures Ethernet.
Les systèmes longue distance de NVIDIA MetroX® permettent de mettre en œuvre une connectivité sans faille avec les Data Centers InfiniBand, les solutions de stockage d’entreprise ou d’autres plateformes distantes basées sur InfiniBand. Ces systèmes aux performances de pointe peuvent étendre la portée d’InfiniBand jusqu’à 40 kilomètres, permettant ainsi une connectivité InfiniBand native entre les Data Centers distants ou entre les Data Centers et les infrastructures de stockage à distance pour une disponibilité accrue et une reprise après sinistre optimisée.
Les câbles et les émetteurs-récepteurs LinkX® ont été conçus pour maximiser les performances des réseaux HPC, qui nécessitent la mise en œuvre de connexions fiables à haut débit et à faible latence entre les éléments InfiniBand.
Le protocole SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol) de NVIDIA permet de transférer les opérations de communication collectives jusqu’au réseau de commutation. Cette approche innovante diminue le volume des données qui transitent sur le réseau, ce qui a pour effet de réduire considérablement le délai des communications MPI (Message Passing Interface) et d’optimiser l’efficacité du Data Center.
L’architecture NVIDIA InfiniBand dispose d’une structure réseau auto-réparatrice qui permet de surmonter les défaillances de liens, accélérant ainsi jusqu’à 5 000 fois les délais de rétablissement du réseau par rapport à d’autres solutions logicielles. Cette structure réseau auto-réparatrice tire profit du système d’intelligence intégré aux commutateurs InfiniBand de nouvelle génération.
InfiniBand est la seule solution d’interconnexion à hautes performances qui propose des fonctionnalités éprouvées de qualité de service (QoS), incluant notamment un contrôle avancé de l’encombrement et un routage adaptatif, à l’efficacité réseau inégalée.
InfiniBand centralise la gestion et prend en charge n’importe quelle topologie, y compris Fat Tree, Hypercubes, Torus (en configuration multidimensionnelle) et Dragonfly+. Divers algorithmes de routage spécialement optimisés fournissent des performances réseau avancées, ce qui peut s’avérer particulièrement utile lors de la conception d’une nouvelle topologie pour des modèles de communication spécifiques.
Les performances du logiciel OFED d’OpenFabrics Alliance ont été renforcées par le biais d’un processus de développement collaboratif et des tests méticuleux réalisés par les principaux fournisseurs de solution d’entrée/sortie (E/S) à hautes performances. NVIDIA MLNX_OFED est une version d’OFED testée par NVIDIA.
NVIDIA HPC-X® est une suite logicielle complète reposant sur MPI et SHMEM/PGAS. HPC-X tire profit des moteurs d’accélération et de calcul en réseau InfiniBand pour optimiser la recherche et les applications du secteur.
La plateforme NVIDIA UFM® (Unified Fabric Manager) permet aux administrateurs de Data Centers d’approvisionner, surveiller et gérer efficacement, mais aussi de dépanner de manière proactive leur infrastructure réseau InfiniBand.
NVIDIA Magnum IO™ s’appuie sur des modules logiciels pour le stockage, la mise en réseau, le calcul en réseau et la gestion des communications E/S pour simplifier et accélérer les transferts, l’accès et la gestion des données sur les systèmes multi-GPU et multi-nœuds.