IA generativa per i centri operativi di rete

Pianifica, crea e gestisci le reti di telecomunicazioni in modo sicuro con l'intelligenza artificiale generativa.

Carichi di lavoro

IA generativa

Settori

Telecomunicazioni

Obiettivo aziendale

Mitigazione del rischio

Prodotti

NVIDIA AI Enterprise
Microservizi NVIDIA
NVIDIA NeMo

L'IA generativa accelera la configurazione, la distribuzione e l'operatività della rete

Si stima che nel 2023 le aziende di telecomunicazioni abbiano speso quasi 295 miliardi di dollari in spese in conto capitale (CapEx) e oltre 1 trilione di dollari in spese operative (OpEx), comprese le spese per i processi manuali per la pianificazione e la manutenzione della rete. Nell'ambito delle reti di telecomunicazioni, le procedure di configurazione e l'ottimizzazione comportano la gestione di un gran numero di parametri interdipendenti che hanno un impatto diretto sulle prestazioni di rete, sull'esperienza utente e sull'efficienza dello spettro per milioni di clienti e utenti finali. Queste impostazioni devono essere costantemente regolate dagli ingegneri delle reti di telecomunicazioni in base all'ora del giorno, al comportamento degli utenti, alla mobilità, alle interferenze e ai tipi di servizio. 

L'IA generativa che alimenta gli LTM telco e gli agenti IA stanno rendendo possibile la nuova generazione di IA nelle operazioni di rete, supportando le aziende di telecomunicazioni nell'ottimizzazione delle OpEx, nell'uso efficiente del CapEx e nelle nuove opportunità di monetizzazione. NVIDIA ha sviluppato una soluzione di IA agentica rendere ulteriormente autonomo questo ambiente dinamico osservando i KPI di rete in tempo reale, prendendo decisioni basate sui dati e regolando automaticamente i parametri. 

A differenza dei sistemi tradizionali basati su regole, l'agente IA può percepire, ragionare attraverso trade-off complessi, apprendere dai loop di feedback e adattarsi alle nuove condizioni grazie al feedback umano integrato fornito secondo necessità. Può inoltre orchestrare le modifiche su più livelli e più fornitori, consentendo azioni coordinate come il bilanciamento del carico, il coordinamento delle interferenze inter-cella o il risparmio energetico nelle aree a basso carico. Questo livello di autonomia e controllo non solo migliora l'efficienza e la qualità del servizio (QoS), ma riduce anche la complessità operativa e i tempi di risoluzione dei problemi in ambienti ad alta densità e domanda elevata. 

 

Migliorare le prestazioni e l'efficienza della rete con il computing accelerato

Le aziende di telecomunicazioni di tutto il mondo stanno esplorando come fornire in modo efficiente nuove applicazioni IA all'edge rispetto al 5G e alle imminenti reti 6G. Grazie al calcolo accelerato e all'IA di NVIDIA, le aziende di telecomunicazioni, i fornitori di servizi cloud (CSP) e le aziende possono creare reti cloud-native ad alte prestazioni, sia fisse che wireless, con una maggiore efficienza energetica e sicurezza. 

NVIDIA AI Foundry per l'IA generativa

NVIDIA AI Foundry, che include i modelli NVIDIA AI Foundation, il framework e gli strumenti NVIDIA NeMo™ e NVIDIA DGX™ Cloud, offre alle aziende una soluzione completa per lo sviluppo dell'IA generativa personalizzata. 

Amdocs, uno dei principali fornitori di software e servizi del settore, prevede di creare modelli linguistici di grandi dimensioni personalizzati nell'ambito delle telecomunicazioni globali del valore di 1,7 miliardi di dollari utilizzando il servizio foundry NVIDIA AI su Microsoft Azure. Nelle operazioni di rete, Amdocs e NVIDIA stanno esplorando nuovi modi per generare soluzioni in grado di risolvere i problemi di configurazione, copertura e prestazioni man mano che si presentano, tra cui:  

  • La creazione di un assistente di IA generativa in grado di rispondere alle domande sulla pianificazione della rete
  • La fornitura di informazioni e la definizione delle priorità nel caso in cui si verifichino interruzioni della rete e cali delle prestazioni
  • Ottimizzazione delle operazioni tramite l'IA generativa per monitorare, prevedere e risolvere i problemi di rete, gestire le risorse in tempo reale, monitorare la diagnostica di rete, analizzare l'impatto sui servizi e sugli utenti, dare priorità alle raccomandazioni basate sull'impatto nonché attivare l'orchestrazione

 

ServiceNow sta integrando le funzionalità di IA generativa nella piattaforma nativa Now e arricchendo tutti i flussi di lavoro con Now Assist, l'assistente di IA generativa. ServiceNow sfrutta NeMo e l'NVIDIA Triton™ Inference Server (entrambi parte di NVIDIA AI Enterprise), i modelli NVIDIA AI Foundation e i sistemi DGX per creare, personalizzare e distribuire modelli di IA generativa per i clienti del settore delle telecomunicazioni. Questi includono diversi casi d'uso nelle operazioni di rete:

  • Garanzia automatizzata dei servizi: per analizzare e intervenire su volumi di dati tecnici complessi generati dagli incidenti di rete e riepilogati dall'IA generativa.
  • Erogazione dei servizi semplificata: per creare dinamicamente attività di ordinamento con l'aiuto dell'IA generativa per ridurre gli errori umani, garantire un'erogazione dei servizi accurata e migliorare il livello di soddisfazione e fedeltà dei clienti.
  • Design di rete ottimizzato: per gestire i diversi servizi di rete, le configurazioni locali e le normative al fine di migliorare il design della rete.

 

NeMo fornisce una soluzione end-to-end che include supporto professionale, sicurezza e stabilità per la pipeline LLM, dall'elaborazione dei dati all'addestramento fino all'inferenza dei modelli di IA generativa. Inoltre, consente alle aziende di telecomunicazioni di addestrare, personalizzare e distribuire rapidamente i modelli di linguaggio di grandi dimensioni (LLM) su vasta scala, riducendo al contempo i tempi di risoluzione e aumentando il ritorno sull'investimento.

La piattaforma NVIDIA AI, che include i modelli NVIDIA AI Foundation, il framework e gli strumenti NeMo e NVIDIA DGX™ Cloud, offre alle aziende una soluzione completa per la creazione di modelli di intelligenza artificiale generativa personalizzati.

Una volta creati, ottimizzati e addestrati i modelli di IA generativa, NeMo consente una distribuzione semplice attraverso l'inferenza ottimizzata su praticamente tutti i data center o cloud. NeMo Retriever, la raccolta di microservizi di IA generativa, consente inoltre un alto livello di recupero delle informazioni con la latenza più bassa, il throughput più elevato e la massima privacy dei dati, consentendo alle organizzazioni di generare informazioni in tempo reale. NeMo Retriever migliora le applicazioni di IA generativa grazie alle capacità di generazione aumentata di recupero (RAG) di livello aziendale, che possono essere collegate ai dati delle organizzazioni, ovunque risiedano.

NVIDIA DGX Cloud è una piattaforma di training-as-a-service con IA, che offre agli sviluppatori aziendali un'esperienza serverless ottimizzata per l'IA generativa. Le aziende possono sfruttare i modelli di base NVIDIA AI di livello aziendale ottimizzati per le prestazioni direttamente da un browser e personalizzarli utilizzando i dati proprietari con NeMo su DGX Cloud.

NVIDIA AI Enterprise per l'analisi dei dati accelerata e l'ottimizzazione della logistica.

La suite software NVIDIA AI Enterprise consente di accelerare i risultati per le iniziative di IA e machine learning, migliorando al contempo l'efficienza in termini di costi. Grazie all'analisi e all'apprendimento automatico, gli operatori di telecomunicazioni possono massimizzare il numero di lavori completati per tecnico in loco, inviare il personale giusto per ogni attività, ottimizzare dinamicamente il routing in base alle condizioni meteo in tempo reale, scalare a migliaia di sedi e risparmiare miliardi di dollari in manutenzione.

AT&T sta trasformando le proprie operazioni e migliorando la sostenibilità grazie all'IA NVIDIA per l'elaborazione dei dati, l'ottimizzazione dei percorsi delle flotte e la creazione di avatar digitali per il supporto e la formazione dei dipendenti. AT&T ha adottato per la prima volta la soluzione NVIDIA RAPIDS™ Accelerator per Apache Spark per sfruttare le GPU a risparmio energetico nelle sue pipeline IA e di scienza dei dati. Tra le pipeline di dati e IA utilizzate con Spark RAPIDS, AT&T sta risparmiando circa la metà sui costi relativi al cloud computing e ottenendo prestazioni più veloci, riducendo al contempo l'impronta di carbonio.

AT&T, che gestisce uno dei team di spedizione sul campo più grandi al mondo, sta attualmente testando il software NVIDIA® cuOpt™ per gestire le sfide più complesse di ottimizzazione dei percorsi dei tecnici. Nelle prime prove, cuOpt ha fornito soluzioni in 10 secondi, mentre lo stesso calcolo sulle CPU x86 richiedeva 1.000 secondi. I risultati hanno portato a una riduzione del 90% dei costi cloud e hanno permesso ai tecnici di completare un numero maggiore di chiamate di assistenza ogni giorno.

Quantiphi, un'azienda di ingegneria digitale basata su tecnologie IA all'avanguardia, sta collaborando con le principali aziende di telecomunicazioni per creare modelli linguistici di grandi dimensioni personalizzati per supportare i tecnici sul campo. Attraverso gli assistenti virtuali basati sugli LLM che fungono da copilota, Quantiphi sta aiutando i tecnici sul campo a risolvere i problemi relativi alla rete e a gestire i ticket di servizio aperti dai clienti finali.

“In origine, Ask AT&T è stato progettato sulla funzionalità ChatGPT di OpenAI. Tuttavia, è interoperabile con altri LLM, tra cui LLaMA 2 di Meta e i modelli di trasformatori open-source Falcon. Collaboriamo a stretto contatto con NVIDIA per creare e personalizzare gli LLM. I diversi LLM si adattano alle diverse applicazioni e strutture di costo. Noi stiamo rendendo possibile tale flessibilità ed efficienza dalle fondamenta.”

Andy Markus, Responsabile dati presso AT&T

Introduzione all'IA generativa per le operazioni di rete

I blueprint NVIDIA AI consentono l'automazione scalabile fornendo un flusso di lavoro che i team di sviluppo possono utilizzare per creare i propri agenti IA. Inoltre, è possibile creare e distribuire agenti IA personalizzati in grado di ragionare, pianificare e agire per analizzare rapidamente grandi quantità di dati, riepilogare e distillare informazioni in tempo reale. 

Il blueprint NVIDIA AI per la configurazione delle reti di telecomunicazioni offre componenti convalidati per le operazioni di rete in più domini. Questo blueprint IA consente agli sviluppatori, agli ingegneri di rete, alle aziende di telecomunicazioni e ai fornitori di automatizzare la configurazione dei parametri delle reti di accesso radio (RAN) utilizzando un framework agentico basato su LLM. 

Le reti autonome offrono l'opportunità di gestire meglio le spese operative (OpEx). Il blueprint IA per la configurazione delle reti telco facilita tale obiettivo fornendo un'architettura IA modulare e i flussi di lavoro di automazione necessari per distribuzioni coerenti e scalabili. Questo blueprint IA reso possibile dall'IA generativa consente agli ingegneri di rete di aggiungere l'intelligenza adattiva prevedendo i problemi, ottimizzando le prestazioni e automatizzando le decisioni.

BubbleRAN e Telenor adottano il blueprint IA di NVIDIA per la configurazione delle reti di telecomunicazione

Il blueprint IA per la configurazione delle reti di telecomunicazione è basato sul software BubbleRAN su un'infrastruttura cloud-native che può essere utilizzata per la creazione di reti autonome su vasta scala insieme alla piattaforma di intelligenza RAN multi-agente. 

Telenor Group, che serve oltre 200 milioni di clienti a livello globale, prevede di distribuire il blueprint IA per la configurazione delle reti di telecomunicazione per affrontare le sfide di configurazione e migliorare la qualità del servizio durante l'installazione della rete.

Dettagli di implementazione

Questo framework agentico basato su LLM utilizza Llama 3.1-70B-Instruct come modello IA fondamentale, viste le sue solide prestazioni nella comprensione del linguaggio naturale, nel ragionamento e nelle chiamate agli strumenti. 

I clienti hanno la flessibilità di distribuire questo progetto tramite: 

  • Endpoint API per i microservizi NIM™ ospitati da NVIDIA all'indirizzo build.nvidia.com
  • Microservizi NIM locali per soddisfare i requisiti di privacy e latenza

Gli utenti finali possono interagire tramite l'interfaccia utente basata su Streamlit per inviare le loro richieste o avviare operazioni di rete. Le query vengono elaborate da un framework per agenti LangGraph che orchestra gli agenti LLM specializzati. 

Tali agenti LLM sono dotati di strumenti specializzati che consentono loro di generare ed eseguire query SQL su dati KPI sia in tempo reale che storici, di calcolare i guadagni medi ponderati dei dati raccolti, di applicare modifiche alla configurazione e di gestire l'ambiente BubbleRAN. 

Sfruttando l'ottimizzazione dei prompt per integrare le conoscenze contestuali sull'architettura di rete BubbleRAN, compresi i dettagli della configurazione, le interdipendenze tra i vari KPI e la logica per bilanciare i compromessi, siamo in grado di ottimizzare i guadagni medi ponderati. 

Il framework agentico basato su LangGraph orchestra tre agenti specializzati, ognuno con responsabilità distinte, che collaborano per chiudere il ciclo di monitoraggio, configurazione e convalida. Una volta inizializzata la rete con i parametri selezionati, l'utente può scegliere tra una sessione di monitoraggio con un agente di monitoraggio o chiedere direttamente all'agente di configurazione per comprendere meglio l'impatto dei parametri e lo stato della rete.

Di seguito, trovi un riepilogo di ciascun agente e delle sue funzionalità: 

 1. Agente di monitoraggio
Questo agente tiene traccia in modo continuo del guadagno medio ponderato dei parametri selezionati in precedenza a intervalli di tempo definiti dall'utente (lasso di tempo di default: 10 secondi) su un database di KPI BubbleRAN in tempo reale. Quando rileva un degrado delle prestazioni dovuto alla riduzione del guadagno medio ponderato di un parametro specifico, segnala il problema all'utente per ottenere l'autorizzazione per il passaggio successivo.

2. Agente di configurazione
L'agente di configurazione può essere attivato tramite trasferimento dall'agente di monitoraggio o tramite le richieste dirette dell'utente sull'ottimizzazione dei parametri o sullo stato della rete. Analizza i dati storici, quindi valuta le tendenze analizzate e le conoscenze specifiche per dominio sulle interdipendenze e i trade-off dei parametri. In base alla sua analisi, suggerisce valori ottimizzati dei parametri all'utente e attende la conferma dell'utente.

3. Agente di convalida
Una volta confermate le modifiche dei parametri, l'agente di convalida riavvia la rete utilizzando la nuova configurazione dei parametri. Inoltre, valuta i parametri aggiornati nel corso di un periodo di convalida configurabile dall'utente e calcola il guadagno medio ponderato risultante. Se il guadagno medio ponderato in tempo reale dovesse peggiorare ulteriormente, torna automaticamente alla configurazione stabile precedente. In caso contrario, conferma l'efficacia della modifica e aggiorna l'interfaccia utente con le nuove impostazioni. 

In sintesi, il nostro framework consente l'ottimizzazione continua e intelligente delle reti attraverso un loop agentico, in cui gli agenti LLM specializzati collaborano per monitorare, analizzare e convalidare le modifiche dei parametri in tempo reale. Avendo a disposizione strumenti per analizzare i dati KPI in tempo reale e storici e di conoscenze specifiche per dominio sui parametri di rete e sui compromessi, questi agenti forniscono consigli basati su dati e ragionamenti che possono essere spiegati. Questo design a ciclo chiuso garantisce che le prestazioni della rete rimangano autonome ma facilmente controllabili dagli utenti, permettendo loro anche di mantenere prestazioni ottimali e di conservare il controllo su ogni punto decisionale.

Per ulteriori dettagli tecnici, consulta la scheda del blueprint.

NVIDIA NIM

NVIDIA NIM, parte di NVIDIA AI Enterprise, è un runtime di facile utilizzo progettato per accelerare la distribuzione di IA generativa a livello aziendale. Questo microservizio versatile supporta i modelli aperti della comunità e i modelli di base NVIDIA del catalogo API NVIDIA, oltre ai modelli AI personalizzati. La soluzione NIM si basa sull'NVIDIA Triton™ Inference Server, una piattaforma open source potente e scalabile per la distribuzione di modelli IA, ed è ottimizzata per l'inferenza degli LLM sulle GPU di NVIDIA con NVIDIA TensorRT-LLM. È inoltre progettata per facilitare l'inferenza IA fluida con il massimo throughput e la latenza più bassa, preservando al contempo la precisione delle previsioni. Ora è possibile distribuire le applicazioni IA ovunque e in tutta sicurezza, sia in sede che nel cloud.

NVIDIA NeMo Retriever

NeMo Retriever è una raccolta di microservizi CUDA-X che consentono la ricerca semantica dei dati aziendali per fornire risposte altamente accurate sfruttando l'ottimizzazione del recupero. I team di sviluppo possono utilizzare questi microservizi accelerati da GPU per attività specifiche, tra cui l'acquisizione, la codifica e l'archiviazione di grandi volumi di dati, l'interazione con i database relazionali esistenti e la ricerca di informazioni pertinenti per rispondere alle domande aziendali.

L'IA generativa può analizzare grandi volumi di dati dai sensori delle apparecchiature per prevedere potenziali guasti o problemi. Ciò aiuta i tecnici a prevedere i problemi ancora prima che si verifichino, consentendo una manutenzione tempestiva e riducendo al minimo i tempi di inattività.

L'analisi basata sull'IA generativa fornisce ai tecnici approfondimenti e consigli pratici basati sui dati in tempo reale. Ciò consente loro di prendere decisioni informate su riparazioni, aggiornamenti e ottimizzazione della rete.

L'IA generativa può automatizzare le attività ripetitive e di routine, come la generazione di ordini di lavoro, la pianificazione degli appuntamenti e la creazione della documentazione. Ciò consente ai tecnici di concentrarsi maggiormente sui problemi complessi e sul servizio clienti.

Ottimizza le operazioni di rete con l'IA generativa

Sfruttando l'IA NVIDIA, le aziende di telecomunicazioni possono ridurre i tempi di inattività della rete, aumentare la produttività dei tecnici sul campo e offrire una migliore qualità del servizio ai propri clienti. Contatta il nostro team di esperti o scopri le altre risorse.

Risorse

L'IA generativa nella pratica: esempi di implementazioni aziendali di successo

Scopri come gli operatori di telecomunicazioni hanno creato degli LLM mission-critical basati sui sistemi NVIDIA DGX e sul framework NeMo per semplificare le loro attività, aumentare la soddisfazione dei clienti e ottenere un ritorno sugli investimenti ancora più veloce e maggiore.

Parte 1: Guida introduttiva ai modelli linguistici di grandi dimensioni

Presentazione degli LLM e di come le aziende possono trarne vantaggio.

Parte 2: Come gli LLM stanno rendendo possibili nuove opportunità per le aziende

Scopri come le attività tradizionali di elaborazione del linguaggio naturale, tra cui la generazione di contenuti, la sintesi, la traduzione, la classificazione e il supporto ai chatbot, vengono eseguite dagli LLM.

Diagramma dell'architettura del blueprint NVIDIA AI per la configurazione delle reti telco.