IA générative pour les centres d'opérations de réseau

Planifiez, construisez et exploitez en toute sécurité des réseaux de télécommunications grâce à l'IA générative.

Charges de travail

IA générative

Industries

Télécommunications

Objectifs commerciaux

Réduction des risques

Produits

NVIDIA AI Enterprise
Microservices NVIDIA NIM
NVIDIA NeMo

L'IA générative accélère la configuration, le déploiement et l'exploitation du réseau

Les entreprises de télécommunications ont dépensé près de 295 milliards de dollars en dépenses en capital (CapEx) et plus de 1 000 milliards de dollars en dépenses d'exploitation (OpEx) en 2024, y compris des dépenses liées aux processus manuels de planification et de maintenance des réseaux. Dans un réseau de télécommunications, la configuration et l'optimisation impliquent la gestion d'un grand nombre de paramètres interdépendants qui affectent directement les performances, l'expérience utilisateur et l'efficacité du spectre pour des millions de clients finaux. Ces paramètres nécessitent un réglage constant par les ingénieurs réseaux en fonction de l'heure de la journée, du comportement de l'utilisateur, de la mobilité, des interférences et des types de service. 

L'IA générative, que l'on retrouve derrière les grands modèles télécoms (LTM), et les agents d'IA ont donné naissance à une nouvelle génération d'IA dans le domaine des opérations réseau. Celle-ci aide les entreprises de télécommunications à optimiser leurs dépenses OpEx, à maximiser l'efficacité de leurs dépenses CapEx et à explorer de nouvelles opportunités de monétisation. NVIDIA a développé une solution d'IA agentique qui surveille les KPIs du réseau en temps réel, prend des décisions en fonction des données et ajuste automatiquement les paramètres, afin de rendre cet environnement dynamique plus autonome. 

Contrairement aux systèmes traditionnels basés sur des règles, un agent basé sur l'IA peut percevoir, raisonner en tenant compte de compromis complexes, apprendre à partir de retours et s'adapter aux nouvelles conditions avec intervention humaine intégrée au processus si nécessaire. Il peut également orchestrer des changements à différents niveaux et auprès de multiples fournisseurs, ce qui permet de réaliser des actions coordonnées telles que l'équilibrage de charge, la coordination des interférences inter-cellules ou des économies d'énergie dans les zones à faible charge. En plus d'améliorer l'efficacité et la qualité de service, un tel niveau d'autonomie réduit également la complexité opérationnelle et les délais de résolution des problèmes dans des environnements très denses et à forte demande. 

 

Augmenter les performances et l'efficacité du réseau grâce au calcul accéléré

Les entreprises de télécommunications internationales cherchent des moyens de fournir à moindre coût de nouvelles applications d’IA à l'Edge sur les réseaux 5G existants et 6G à venir. Grâce au calcul accéléré et à l'IA de NVIDIA, les opérateurs de télécommunications, les fournisseurs de services Cloud (CSP) et les entreprises peuvent désormais créer des réseaux hautes performances plus écoénergétiques et plus sûrs, à la fois filaires et sans fils et pensés pour le Cloud. 

NVIDIA AI Foundry pour l'IA générative

NVIDIA AI Foundry comprend les modèles de fondation de NVIDIA pour l'IA, le framework et les outils NVIDIA NeMo™, et NVIDIA DGX™ Cloud, soit une solution complète à destination des entreprises pour développer une IA générative personnalisée. 

Amdocs, l'un des principaux fournisseurs de logiciels et de services, compte utiliser le service NVIIA AI Foundry sur Microsoft Azure pour développer de grands modèles de langage (LLM) personnalisés pour l'industrie mondiale des télécommunications, évaluée à 1 700 milliards de dollars. Dans le domaine des opérations réseau, Amdocs et NVIDIA explorent des moyens de générer des solutions qui résolvent les problèmes liés à la configuration, à la couverture et aux performances à mesure qu'ils surviennent, notamment :  

  • Développer un assistant basé sur l'IA générative pour répondre aux questions sur la planification réseau
  • Fournir des informations et gérer les priorités en cas d'interruptions du réseau et de dégradation des performances
  • Optimiser les opérations à l'aide de l'IA générative pour surveiller, prédire et résoudre les problèmes réseau, gérer les ressources en temps réel, surveiller les diagnostics réseau, analyser l'impact sur les services et les utilisateurs, hiérarchiser les recommandations en fonction de l'impact et activer l'orchestration

 

ServiceNow intègre des capacités d'IA générative à sa plateforme Now et enrichit tous les workflows avec Now Assist, leur assistant basé sur l'IA générative. ServiceNow utilise NeMo, le serveur d'inférence NVIDIA Triton™ (tous deux partie intégrante de NVIDIA AI Enterprise), les modèles d'IA fondamentaux NVIDIA et les systèmes DGX pour développer, personnaliser et déployer des modèles d'IA générative pour les clients du secteur des télécommunications. Les cas d'utilisation touchent aux opérations réseau :

  • Assurance de service automatisée : trier et agir sur d'énormes quantités de données techniques complexes générées à partir d'incidents réseau et résumées par l'IA générative.
  • Prestation de services simplifiée : générer de façon dynamique des tâches liées aux commandes grâce à l'IA générative pour réduire les erreurs humaines, garantir une prestation de services précise et améliorer la satisfaction et la fidélisation des clients.
  • Conception réseau optimisée : gérer divers services réseau, configurations locales et ensembles de règles pour améliorer la conception réseau.

 

NeMo fournit une solution complète comprenant assistance, sécurité et stabilité dignes des entreprises pour l'ensemble du pipeline de LLM, du traitement des données à l'entraînement en passant par l'inférence des modèles d'IA générative. Il permet aux entreprises d’entraîner, de personnaliser et de déployer rapidement des LLM de façon évolutive, en réduisant les délais et en améliorant le retour sur investissement.

NVIDIA AI Foundry comprend les modèles d'IA de fondation de NVIDIA, le framework et les outils NeMo, et NVIDIA DGX™ Cloud, soit une solution complète de création de modèles d'IA générative personnalisés à destination des entreprises.

Une fois les modèles d'IA générative créés, affinés et entraînés, NeMo permet leur déploiement en toute simplicité grâce à une inférence optimisée sur pratiquement n'importe quel centre de données ou Cloud. NeMo Retriever, une collection de microservices d'IA générative, permet une récupération d'informations hors pairs avec une latence minime, un débit optimal et une confidentialité maximale des données. De quoi permettre aux entreprises de générer des éclairages en temps réel. NeMo Retriever améliore les applications d’IA générative grâce à des capacités de génération augmentées par récupération (RAG) digne des entreprises. Celles-ci peuvent être connectées aux données métier où qu’elles se trouvent.

NVIDIA DGX Cloud est une plateforme d'entraînement de l'IA en tant que service qui offre aux développeurs d'entreprise une expérience sans serveur optimisée pour l'IA générative. Les entreprises ont ainsi accès à des modèles d'IA fondamentaux NVIDIA aux performances optimisées directement à partir d'un navigateur et peuvent les personnaliser à l'aide de données propriétaires avec NeMo sur DGX Cloud.

NVIDIA AI Enterprise pour accélérer la science des données et optimiser la logistique

La suite logicielle NVIDIA AI Enterprise permet d’accélérer l’obtention de résultats pour les initiatives en IA et apprentissage automatique, tout en améliorant la rentabilité. Grâce à l'analyse et à l'apprentissage automatique, les opérateurs de télécommunications peuvent maximiser le nombre de missions terminées par technicien sur le terrain, affecter à chacune le personnel approprié, optimiser en temps réel le routage en fonction des conditions météorologiques, étendre à des milliers de sites et économiser des milliards de dollars en maintenance.

AT&T transforme ses opérations tout en tenant compte du développement durable en utilisant l'IA NVIDIA pour traiter les données, optimiser le routage de flotte et créer des avatars numériques pour l'assistance et la formation des employés. AT&T a pour la première fois adopté l'accélérateur NVIDIA RAPIDS™ pour Apache Spark pour capitaliser sur des GPU faible consommation dans leurs pipelines d'IA et de science des données. Sur les pipelines de données et d'IA ciblés avec Spark RAPIDS, AT&T a réduit de moitié environ ses dépenses en Cloud Computing et constate des performances plus rapides, le tout avec une empreinte carbone amenuisée.

AT&T exploite l'une des plus grandes équipes de déploiement sur le terrain. Elle teste actuellement le logiciel NVIDIA® cuOpt™ pour gérer les difficultés de routage et d'optimisation plus avancées. Lors des premiers essais, cuOpt a fourni des solutions en 10 secondes, tandis que le même calcul sur des CPU x86 a pris 1 000 secondes. Ces résultats ont permis de réduire de 90 % les coûts Cloud, tandis que les techniciens ont pu effectuer plus de missions par jour.

Quantiphi est une entreprise d'ingénierie numérique innovante spécialisée dans l'IA. Elle travaille avec les principaux opérateurs de télécommunications pour développer des LLM personnalisés afin d'aider les techniciens sur le terrain. Grâce à des assistants virtuels basés sur des LLM et qui font office de copilotes, Quantiphi aide les techniciens sur le terrain à résoudre les problèmes liés au réseau et à gérer les tickets de service envoyés par les clients finaux.

"Ask AT&T a d'abord été créé sur ChatGPT d'OpenAI." Toutefois, l'outil est également interopérable avec d'autres LLM, notamment LLaMA 2 de Meta et les transformateurs open source Falcon. Nous travaillons en étroite collaboration avec NVIDIA pour créer et personnaliser les LLM. Différents modèles sont adaptés à différentes applications et ne présentent pas les mêmes structures de coûts, et nous intégrons cette flexibilité et cette efficacité dès le départ."

Andy Markus, Chief Data Officer, AT&T

Introduction à l'IA générative dans l'exploitation réseau

Les modèles d'IA de NVIDIA permettent une automatisation évolutive en fournissant un workflow que les développeurs peuvent utiliser pour créer leurs propres agents basés sur l'IA. Ils peuvent ainsi créer et déployer des agents d'IA personnalisés capables de raisonner, de planifier et d'agir pour analyser et résumer rapidement de grandes quantités de données, et distiller des éclairages en temps réel. 

Le modèle d'IA de NVIDIA pour la configuration de réseaux de télécommunications fournit des éléments validés pour les opérations réseau dans plusieurs domaines. Il permet aux développeurs, aux ingénieurs réseau, aux entreprises de télécommunications et aux fournisseurs d'automatiser la configuration des paramètres RAN (Radio Access Network) à l'aide d'un framework agentique basé sur un LLM. 

Les réseaux autonomes permettent de mieux gérer les dépenses opérationnelles. Le modèle d'IA pour la configuration de réseaux de télécommunications facilite cette tâche en fournissant une architecture d'IA modulaire et les workflows d'automatisation nécessaires à des déploiements uniformes et évolutifs. Ce modèle d'IA repose sur l'IA générative et permet aux ingénieurs réseau d'ajouter une intelligence adaptative pour prédire les problèmes, optimiser les performances et automatiser les décisions.

BubbleRAN et Telenor adoptent le modèle d'IA NVIDIA pour la configuration des réseaux de télécommunications

Le modèle d'IA pour la configuration des réseaux de télécommunications repose sur le logiciel de BubbleRAN exécuté sur une infrastructure conçue pour le Cloud. Il peut être utilisée pour développer des réseaux autonomes à grande échelle grâce à leur plateforme d'intelligence RAN multi-agents. 

Telenor Group et ses plus de 200 millions de clients dans le monde prévoit de déployer ce modèle afin de résoudre les problèmes de configuration et d'améliorer la qualité de service (QoS) pendant l'installation du réseau.

Détails de mise en œuvre

Ce framework agentique piloté par LLM utilise Llama 3.1-70B-Instruct comme modèle d'IA fondamental en raison de ses performances robustes dans la compréhension du langage naturel, le raisonnement et l'utilisation d'outils. 

Les clients ont la possibilité de déployer ce modèle via : 

  • Les points de terminaison d'API des microservices NIM™ hébergés par NVIDIA sur build.nvidia.com
  • Les microservices NIM sur site, pour répondre aux exigences de confidentialité et de latence

Les utilisateurs envoient leurs demandes ou lancent des opérations réseau via une interface utilisateur basée sur Streamlit. Ces requêtes sont traitées par un cadre agentique LangGraph, qui orchestre les agents LLM spécialisés. 

Les agents LLM sont équipés d'outils spécialisés qui leur permettent de générer et d'exécuter des requêtes SQL sur des données de KPI en temps réel et historiques, de calculer les gains moyens pondérés des données collectées, d'appliquer des modifications de configuration et de gérer l'environnement BubbleRAN. 

Nous nous appuyons sur le prompt tuning pour injecter des données contextuelles sur l'architecture réseau BubbleRAN, notamment concernant la configuration et les interdépendances entre les différents KPI et la logique d'équilibrage des compromis afin d'optimiser les gains moyens pondérés. 

Le framework agentique basé sur LangGraph orchestre trois agents spécialisés, chacun avec ses propres responsabilités. Ils travaillent ensemble pour mener à bien le cycle surveillance, configuration et validation. Une fois que l'utilisateur a initialisé le réseau avec les paramètres sélectionnés, il peut choisir entre une session de surveillance avec un agent ou interroger directement l'agent de configuration pour comprendre l'impact des paramètres et l'état du réseau.

Vous trouverez ci-dessous un récapitulatif de chaque agent et de leur fonctionnalité : 

 1. Agent de suivi
Cet agent suit en permanence le gain moyen pondéré des paramètres présélectionnés à des intervalles de temps définis par l'utilisateur (par défaut : 10 secondes) sur une base de données de KPI BubbleRAN en temps réel. Lorsqu'il détecte une dégradation des performances causée par une réduction du gain moyen pondéré d'un paramètre spécifique, il informe l'utilisateur pour qu'il autorise le passage à l'étape suivante.

2. Agent de configuration
L'agent de configuration peut être activé par l'agent de surveillance ou directement à partir des requêtes de l'utilisateur concernant l'optimisation des paramètres ou l'état du réseau. Il analyse les données historiques, puis raisonne en tenant compte des tendances identifiées et des connaissances spécifiques au domaine sur les interdépendances et les compromis des paramètres. En fonction de son analyse, il suggère des améliorations des paramètres et attend la confirmation de l'utilisateur.

3. Agent de validation
Une fois les ajustements des paramètres confirmés, l'agent de validation redémarre le réseau avec les nouveaux paramètres. Il évalue les paramètres mis à jour pendant une période de validation donnée (configurable par l'utilisateur) et calcule le gain moyen pondéré qui en résulte. Si celui-ci se dégrade encore, il revient automatiquement à la configuration stable précédente. Sinon, il confirme la réussite de la nouvelle configuration et met à jour l'interface utilisateur avec les nouveaux paramètres. 

En résumé, notre framework permet l'optimisation en continu et intelligente des réseaux grâce à une boucle agentique au cours de laquelle des agents LLM spécialisés travaillent de concert pour surveiller, analyser et valider les modifications de paramètres en temps réel. Ces agents sont équipés d'outils pour analyser les données de KPI en temps réel et historiques, et disposant de connaissances spécifiques à un domaine sur les paramètres réseau et les compromis, qui leur permettent de fournir des recommandations basées sur des données et un raisonnement explicable. Cette conception en boucle fermée garantit que les performances du réseau restent autonomes mais contrôlables par l'utilisateur, qui est donc en mesure de maintenir des performances optimales tout en gardant le contrôle de chaque point de décision.

Pour plus d'informations techniques, consultez la fiche du modèle.

NVIDIA NIM

NVIDIA NIM fait partie de NVIDIA AI Enterprise. Il s'agit d'un environnement d'exécution facile à utiliser, conçu pour accélérer le déploiement de l'IA générative dans les entreprises. Ce microservice polyvalent prend en charge les modèles ouverts issus de la communauté, les modèles d'IA de fondation de NVIDIA tirés du catalogue d'API NVIDIA, ainsi que les modèles d'IA personnalisés. NIM est basé sur le serveur d'inférence NVIDIA Triton™, une plateforme open source puissante et évolutive pour déployer des modèles d'IA, et est optimisé pour l'inférence des grands modèles de langage (LLM) sur les GPU NVIDIA avec NVIDIA TensorRT-LLM. NIM est conçu pour permettre une inférence de l'IA sans accrocs avec un débit maximal et une latence minimale, tout en préservant la précision des prédictions. Vous pouvez désormais déployer des applications d'IA n'importe où en toute confiance, sur site ou dans le Cloud.

NVIDIA NeMo Retriever

NeMo Retriever est une collection de microservices CUDA-X permettant la recherche sémantique de données d'entreprise pour fournir des réponses très précises à l'aide de l'augmentation par récupération. Les développeurs peuvent utiliser ces microservices accélérés par GPU pour des tâches spécifiques, notamment l'ingestion, l'encodage et le stockage de grands volumes de données, l'interaction avec des bases de données relationnelles existantes et la recherche d'informations pertinentes pour répondre à des questions métier.

L'IA générative peut analyser de grands volumes de données provenant de capteurs afin de prévoir les pannes ou les problèmes potentiels. Les techniciens peuvent ainsi anticiper les problèmes avant qu'ils se produisent, ce qui permet une maintenance rapide et des temps d'arrêt minimes.

Les analyses qui reposent sur l'IA générative fournissent aux techniciens des informations et des recommandations exploitables basées sur des données en temps réel. Ils peuvent ainsi prendre des décisions éclairées concernant les réparations, les mises à niveau et l'optimisation du réseau.

L'IA générative peut automatiser les tâches répétitives et routinières, telles que créer des bons de commande, planifier des rendez-vous et créer des documents. Les techniciens peuvent ainsi se concentrer sur les problèmes complexes et le service client.

Optimisez les opérations réseau avec l'IA générative

Grâce à NVIDIA AI, les entreprises de télécommunications peuvent réduire les temps d'arrêt du réseau, augmenter la productivité des techniciens sur le terrain et fournir une meilleure qualité de service aux clients. Pour vous lancer, contactez notre équipe d'experts ou consultez des ressources supplémentaires.

Ressources

L'IA générative en pratique : exemples de déploiements réussis en entreprise

Découvrez comment les opérateurs de télécommunications ont développé des LLM stratégiques à partir des systèmes NVIDIA DGX et du framework NeMo pour simplifier leur activité, augmenter la satisfaction de leurs clients et obtenir un retour sur investissement à la fois rapide et optimal.

Partie 1 : Introduction aux grands modèles de langage

Découvrez les LLM et comment les entreprises peuvent les exploiter.

Partie 2 : Les nouvelles opportunités qu'offrent les grands modèles de langage aux entreprises

Découvrez comment les tâches de traitement du langage naturel traditionnelles sont effectuées par des LLM, notamment générer du contenu, résumer du contenu, traduire, classer et fournir une assistance par chatbot.

Diagramme de l'architecture du modèle d'IA de NVIDIA pour la configuration des réseaux de télécommunication.