NVIDIA Base Command Manager

Solutions d'infrastructure d'IA

AI Grids

Faites évoluer les applications natives d'IA en orchestrant les charges de travail sur une infrastructure d'IA distribuée géographiquement.

Aperçu

Infrastructure distribuée pour l'IA générative, agentique et physique

Les applications d'IA modernes fonctionnent en temps réel, sont hyper-personnalisées et traitent d'énormes quantités de données, au service de millions d'utilisateurs, d'agents et de machines à travers le monde. Les opérateurs de télécommunications sont particulièrement bien placés pour répondre à cette demande en transformant leurs infrastructures existantes en réseaux d'IA, rapprochant ainsi l'IA des lieux où l'intelligence est utilisée.

Une grille d'IA est une plateforme d'infrastructure d'IA distribuée, interconnectée et orchestrée qui exécute chaque charge de travail là où elle offre les meilleures performances. Une telle grille connecte les usines d'IA à des hubs régionaux et à des sites à l'Edge, afin que les données, les modèles et les agents puissent se déplacer en toute sécurité sur des sites distribués fonctionnant comme un système unifié. 

NVIDIA fournit la pile de calcul accéléré, de mise en réseau et de logiciels qui alimente les grilles d'IA, aidant les opérateurs à débloquer rapidement des capacités d'IA distribuées et à alimenter de nouvelles expériences natives de l'IA

NVIDIA et les leaders des télécommunications créent des grilles d'IA pour optimiser l'inférence sur les réseaux distribués

À mesure que les applications natives de l'IA s'étendent à un plus grand nombre d'utilisateurs, d'agents et d'appareils, les réseaux de télécommunications deviennent le prochain terrain d'action pour la distribution de l'IA.

Créez et déployez facilement des grilles d'IA avec NVIDIA

La conception de référence de NVIDIA AI Grids offre aux opérateurs un moyen unifié de créer, de déployer et d'orchestrer l'IA sur des sites distribués.

Avantages

Exécutez chaque charge de travail d'IA à l'emplacement optimal

Latence prévisible

Assurez la réactivité des services natifs de l'IA en exécutant l'inférence sur l'infrastructure la plus proche des utilisateurs, des agents et des machines. Cela aide les opérateurs à respecter des accords de niveau de service (SLA) stricts pour les expériences de voix, de vision et de contrôle en temps réel.

Meilleure économie des jetons

Exécutez des charges de travail gourmandes en jetons sur les nœuds offrant les meilleures performances informatiques et réseau au meilleur prix, ce qui réduit le volume de données sur le réseau et diminue les coûts de sortie sans sacrifier la qualité de service.

Utilisation et résilience plus élevées

Traitez de nombreux sites distribués comme un seul pool de capacité d'IA pour augmenter l'utilisation des GPU et réduire les ressources inutilisées. En cas de panne d'un site, les charges de travail sont automatiquement rééquilibrées sur l'ensemble du réseau pour maintenir la continuité du service.

Concurrence à grande échelle

Exécutez des services natifs IA sur plusieurs sites distribués afin de gérer les pics importants d'utilisateurs, d'applications et d'agents simultanés, tout en conservant une qualité d'expérience et des coûts cohérants.

Produits

Les éléments constitutifs d'une grille d'IA

NVIDIA offre une plateforme unifiée pour équiper les sites distribués d'une infrastructure d'IA complète, les transformant en grilles d'IA connectées et orchestrées.

GPU hautes performances

Dans les usines d'IA centralisées, les systèmes à l'échelle du rack, tels que NVIDIA GB300 NVL72, offrent un débit extrême pour les charges de travail d'entraînement, d'affinage et de raisonnement à grande échelle. Sur les sites de réseau distribués, les GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition fournissent une plateforme d'inférence polyvalente et rentable qui peut s'adapter aux infrastructures de télécommunications existantes avec une mise à niveau minimale.

NVIDIA Spectrum-X Ethernet

Grâce au routage adaptatif d'accès direct à la mémoire (RDMA) sur Ethernet convergé (RoCE) et au contrôle de la congestion optimisé, NVIDIA Spectrum-X™ Ethernet accélère les performances de stockage de près de 50 % et réduit les goulets d'étranglement de communication. Les entreprises peuvent ainsi faire évoluer toujours plus efficacement leurs applications d'IA tout en maximisant l'utilisation des systèmes d'IA.

DPU NVIDIA BlueField

Les DPU NVIDIA BlueField déchargent, accélèrent et isolent les services d'infrastructure dans les usines d'IA et les environnements distribués à l'échelle mondiale, permettant à plusieurs locataires et charges de travail de partager une infrastructure haute performance commune en toute sécurité et efficacement. Les opérateurs de télécommunications intègrent BlueField pour améliorer la sécurité et optimiser le débit et l'efficacité de l'IA.

TensorRT LLM

NVIDIA TensorRT™ LLM est une bibliothèque open source pour l'inférence de grands modèles de langage (LLM) hautes performances en temps réel sur des GPU NVIDIA. Grâce à un environnement d'exécution Python modulaire, à la création native de PyTorch et à une API de production stable, il est optimisé pour maximiser le débit, minimiser les coûts et fournir des expériences utilisateur rapides.

NVIDIA Dynamo

NVIDIA Dynamo est un framework de service d'inférence distribué pour déployer des modèles dans des environnements multi-nœuds à l'échelle d'une usine d'IA. Il rationalise le traitement distribué en désagrégant l'inférence, en optimisant le routage et en étendant la mémoire via la mise en cache des données vers des couches de stockage rentables.

Microservices NVIDIA NIM

NVIDIA NIM™ est un ensemble de microservices d'inférence faciles d'emploi, conçus pour accélérer le déploiement des modèles de fondation et protéger les données. NVIDIA NIM est optimisé pour l'inférence à l'échelle de l'entreprise.

Cas d'utilisation

L'intelligence distribuée en action

Découvrez comment les grilles d'IA basées sur NVIDIA permettent une nouvelle classe d'applications natives de l'IA qui exigent un accès en temps réel et rentable à l'intelligence à grande échelle.

IA physique

L'IA physique permet aux robots, aux véhicules, aux caméras et aux systèmes IoT de percevoir, de raisonner et d'agir dans le monde physique. Les grilles d'IA permettent à NVIDIA Metropolis d'exécuter une vision d'IA à l'échelle de la ville à proximité de caméras pour l'analyse en temps réel, tandis que les robots autonomes délèguent la planification et le raisonnement plus lourds vers des sites voisins lorsque le calcul embarqué est insuffisant.

IA en temps réel

Les services d'IA interactifs tels que les assistants d'IA conversationnelle dépendent d'un contrôle strict de la latence et des saccades de bout en bout pour offrir une expérience naturelle et réactive. Les grilles d'IA exécutent ces charges de travail sur des nœuds physiquement proches des données, préservant ainsi la marge de latence et acheminant chaque requête vers les meilleures ressources disponibles, même en cas de pics de demande ou de pannes partielles.

Hyper-personnalisation

Les assistants d'IA, les expériences sportives et multimédias et les applications d'entreprise personnalisés doivent adapter leurs réponses en temps réel à des milliers, voire des millions de sessions simultanées. Sur une grille IA, les opérateurs peuvent mettre en cache le contexte utilisateur ou locataire au niveau des nœuds régionaux et exécuter la logique de personnalisation et la génération plus près des utilisateurs, améliorant ainsi la latence résiduelle tout en garantissant la durabilité économique d'une personnalisation permanente.

Fonctions réseau natives de l'IA

Les charges de travail réseau telles que le RAN, le pilotage du trafic et l'optimisation du plan utilisateur s'appuient de plus en plus sur l'IA pour analyser les flux et prendre des décisions en temps réel. Les grilles d'IA exécutent ces fonctions réseau natives d'IA sur la même infrastructure distribuée que les applications, améliorant ainsi l'utilisation et permettant un routage, une application de politiques et une qualité d'expérience plus intelligents sur l'ensemble du réseau.

Étapes suivantes

Vous voulez vous lancer ?

Créez des grilles d'IA à grande échelle avec la conception de référence NVIDIA AI Grid, fournissant une pile matérielle et logicielle unifiée qui transforme les sites distribués en infrastructure d'IA connectée et orchestrée.

Contactez-nous

Posez des questions ou demandez plus d'informations. Nos experts sont là pour vous aider.

Suivez l'actualité de NVIDIA

Inscrivez-vous pour recevoir les dernières nouvelles de NVIDIA sur l'IA et les télécommunications.