IA generativa para centros de operaciones de red

Planifique, cree y opere redes de telecomunicaciones de forma segura con IA generativa.

Cargas de trabajo

IA generativa

Sectores

Telecomunicaciones

Objetivo comercial

Mitigación de riesgos

Productos

NVIDIA AI Enterprise
NVIDIA NIM Microservicios
NVIDIA NeMo

La IA generativa acelera la configuración, la implementación y la operación de redes

Las empresas de telecomunicaciones gastaron aproximadamente 295 mil millones de dólares en gastos de capital (CapEx) y más de 1 billón de dólares estadounidenses en gastos de operación (OpEx) en 2024, incluido el gasto en procesos manuales de planificación y mantenimiento de redes. En una red de telecomunicaciones, la configuración y la optimización implican la gestión de un vasto número de parámetros interdependientes que afectan directamente al rendimiento de la red, la experiencia del usuario y la eficiencia del espectro para millones de clientes y usuarios finales. Esta configuración necesita un ajuste constante por parte de los ingenieros de redes de telecomunicaciones en función de la hora del día, el comportamiento de los usuarios, la movilidad, la interferencia y los tipos de servicio. 

La IA generativa, los modelos grandes de telecomunicaciones (LTM) y los agentes de IA permiten la próxima generación de IA en las operaciones de red, ayudan a las empresas de telecomunicaciones a optimizar su OpEx, utilizar su CapEx de forma eficiente y revelar nuevas oportunidades de monetización. NVIDIA desarrolló una solución de IA agentiva para llevar la autonomía a este entorno dinámico al observar los indicadores clave de rendimiento de red en tiempo real, tomar decisiones basadas en datos y ajustar automáticamente los parámetros.

A diferencia de los sistemas tradicionales basados en reglas, un agente de IA puede percibir, razonar sobre compromisos complejos, aprender de los ciclos de retroalimentación y adaptarse a las nuevas condiciones con retroalimentación humana integrada según sea necesario. También puede orquestar cambios en varias capas y varios proveedores, lo que permite acciones coordinadas, como la distribución de carga, la coordinación de interferencias entre celdas o el ahorro de energía en áreas con poca carga. Este nivel de control autónomo no solo mejora la eficiencia y la calidad del servicio (QoS), sino que también reduce la complejidad operativa y el tiempo de resolución de problemas en entornos densos y de alta demanda.

 

Impulsar el rendimiento y la eficiencia de las redes con computación acelerada

Las empresas globales de telecomunicaciones están estudiando cómo proporcionar de forma rentable nuevas aplicaciones de IA al perímetro a través de las redes 5G y de las inminentes 6G. Con la computación acelerada y la IA de NVIDIA, las empresas de telecomunicaciones, los proveedores de servicios en la nube (Cloud Service Providers, CSP) y las empresas pueden crear redes nativas de la nube de alto rendimiento, tanto fijas como inalámbricas, con eficiencia energética y seguridad mejoradas.

NVIDIA AI Foundry para IA generativa

La plataforma de IA de NVIDIA, que incluye modelos NVIDIA AI Foundation, el marco y las herramientas NVIDIA NeMo™ y NVIDIA DGX™ Cloud, ofrece a las empresas una solución de extremo a extremo para desarrollar IA generativa personalizada.

Amdocs, un proveedor líder de software y servicios, planea crear modelos de lenguaje de gran tamaño (LLM) personalizados para el sector global de las telecomunicaciones, de 1,7 billones de dólares, utilizando el servicio NVIDIA AI Foundry en Microsoft Azure. En las operaciones de red, Amdocs y NVIDIA exploran formas de generar soluciones que abordan los problemas de configuración, cobertura y rendimiento a medida que surgen, incluidos los siguientes.

  • Creación de un asistente de IA generativa para responder a preguntas sobre la planificación de redes
  • Suministro de información y priorización para interrupciones de redes y degradaciones de rendimiento
  • Optimización de operaciones utilizando IA generativa para monitorizar, predecir y resolver problemas de red, gestionar recursos en tiempo real, monitorizar el diagnóstico de red, analizar el impacto en los servicios y los usuarios, priorizar recomendaciones basadas en el impacto y ejecutar la activación de orquestación.

 

ServiceNow integra capacidades de IA generativa en su plataforma Now y enriquece todos los flujos de trabajo con Now Assist, su asistente de IA generativa. ServiceNow aprovecha NeMo y el servidor de inferencia NVIDIA Triton (ambos parte de NVIDIA AI Enterprise), los modelos NVIDIA AI Foundation y los sistemas DGX para crear, personalizar e implementar modelos de IA generativa para clientes de telecomunicaciones. Esto incluye casos de uso en operaciones de red:

  • Garantía de servicio automatizada: destilar y actuar sobre volúmenes de datos técnicos complejos generados a partir de incidentes de red y resumidos por IA generativa.
  • Prestación de servicios agilizada: genere dinámicamente tareas de pedidos con IA generativa para reducir los errores humanos, garantizar una prestación de servicios precisa y mejorar la satisfacción y la fidelidad de los clientes.
  • Diseño de redes optimizado: gestione diversos servicios de red, configuraciones locales y dictámenes para mejorar el diseño de redes.

 

NeMo proporciona una solución de extremo a extremo, que incluye soporte de nivel empresarial, seguridad y estabilidad en todo el proceso de modelos de lenguaje de gran tamaño (LLM), desde el procesamiento de datos hasta el entrenamiento y la inferencia de modelos de IA generativa. Permite a las empresas de telecomunicaciones entrenar, personalizar e implementar rápidamente modelos de lenguaje de gran tamaño (LLM) a escala, lo que reduce el tiempo de solución y aumenta el retorno de la inversión.

La plataforma de IA de NVIDIA incluye modelos NVIDIA AI Foundation, el marco y las herramientas NeMo y NVIDIA DGX™ Cloud, lo que ofrece a las empresas una solución integral para crear modelos de IA generativa personalizados.

Una vez creados, ajustados y entrenados los modelos de IA generativa, NeMo permite una implementación fluida a través de una inferencia optimizada en prácticamente cualquier centro de datos o nube. NeMo Retriever, una colección de microservicios de IA generativa, proporciona recuperación de información de clase mundial con la latencia más baja, el mayor rendimiento y la máxima privacidad de datos, lo que permite a las organizaciones generar conocimientos en tiempo real. NeMo Retriever mejora las aplicaciones de IA generativa con generación aumentada por recuperación (RAG) de nivel empresarial, que puede conectarse a los datos empresariales dondequiera que residan.

NVIDIA DGX Cloud es una plataforma de entrenamiento de IA como servicio que ofrece una experiencia sin servidor para desarrolladores empresariales optimizada para la IA generativa. Las empresas pueden experimentar modelos de NVIDIA AI Foundation de nivel empresarial y con rendimiento optimizado directamente desde un navegador y personalizarlos utilizando datos propietarios con NeMo en DGX Cloud.

NVIDIA AI Enterprise para la ciencia de datos acelerada y la optimización de logística

El conjunto de software NVIDIA AI Enterprise permite obtener resultados más rápidos para las iniciativas de IA y aprendizaje automático, al tiempo que mejora la rentabilidad. Utilizando el análisis y el aprendizaje automático, los operadores de telecomunicaciones pueden maximizar el número de trabajos completados por técnico de campo, enviar al personal adecuado para cada trabajo, optimizar dinámicamente la planificación de rutas en función de las condiciones meteorológicas en tiempo real, escalar a miles de ubicaciones y ahorrar miles de millones de dólares en mantenimiento.

AT&T transforma sus operaciones y mejora la sostenibilidad al utilizar IA con tecnología de NVIDIA para procesar datos, optimizar el enrutamiento de flotas y crear avatares digitales para la asistencia y la formación de empleados. AT&T adoptó por primera vez el acelerador NVIDIA RAPIDS™ para Apache Spark para capitalizar las GPU con eficiencia energética en sus procesos de IA y ciencia de datos. De los procesos de datos e IA dirigidos a Spark RAPIDS, AT&T ahorra aproximadamente la mitad de su gasto en computación en la nube y observa un rendimiento más rápido, al tiempo que reduce su huella de carbono.

AT&T, que opera uno de los equipos de despacho de campo más grandes, está probando actualmente el software NVIDIA® cuOpt™ para gestionar los desafíos de enrutamiento y optimización de técnicos más complejos. En las primeras pruebas, cuOpt ofreció soluciones en 10 segundos, mientras que la misma computación en las CPU x86 llevó 1000 segundos. Los resultados produjeron una reducción del 90 por ciento en los costos en la nube y permitieron a los técnicos completar más llamadas de servicio cada día.

Quantiphi, una empresa de ingeniería digital innovadora y pionera en IA, trabaja con las principales empresas de telecomunicaciones para crear modelos de lenguaje de gran tamaño (LLM) personalizados para ayudar a los técnicos de campo. A través de asistentes virtuales con tecnología de LLM que actúan como copilotos, Quantiphi ayuda a los técnicos de campo a resolver problemas relacionados con las redes y gestionar las solicitudes de servicio planteadas por los clientes finales.

"Ask AT&T se basaba originalmente en la funcionalidad ChatGPT de OpenAI. Pero Ask AT&T también es interoperable con otros modelos de lenguaje de gran tamaño (LLM), incluidos LLaMA 2 de Meta y los transformadores Falcon de código abierto. Estamos trabajando estrechamente con NVIDIA para crear y personalizar modelos lingüísticos de gran tamaño. Los diferentes LLM son adecuados para diferentes aplicaciones y tienen diferentes estructuras de costes, y creamos esa flexibilidad y eficiencia desde el principio."

Andy Markus, director de datos de AT&T

Introducción a la IA generativa para operaciones de redes

Los blueprints de NVIDIA AI permiten la automatización escalable al proporcionar un flujo de trabajo que los desarrolladores pueden utilizar para crear sus propios agentes de IA. Con estos, los desarrolladores pueden crear e implementar agentes de IA personalizados que pueden razonar, planificar y tomar medidas para analizar rápidamente grandes cantidades de datos, resumir y destilar información en tiempo real. 

NVIDIA AI Blueprint para configuración de redes de telecomunicaciones ofrece bloques de construcción validados para operaciones de red en varios ámbitos. Este plan de IA permite a los desarrolladores, los ingenieros de redes, las empresas de telecomunicaciones y los proveedores automatizar la configuración de los parámetros de la red de acceso de radio (RAN) utilizando un marco impulsado por un modelo de lenguaje de gran tamaño (LLM) con enfoque agentivo.

Las redes autónomas proporcionan una oportunidad para gestionar mejor los gastos operativos (OpEx). AI Blueprint para la configuración de redes de telecomunicaciones facilita esto al proporcionar una arquitectura de IA modular y los flujos de trabajo de automatización necesarios para implementaciones coherentes y escalables. Con IA generativa, este plan maestro de IA permite a los ingenieros de redes añadir inteligencia adaptativa al predecir problemas, optimizar el rendimiento y automatizar decisiones.

BubbleRAN y Telenor adoptan el plan maestro de NVIDIA AI para la configuración de redes de telecomunicaciones

El plan maestro de IA para la configuración de redes de telecomunicaciones funciona con el software de BubbleRAN en una infraestructura en la nube nativa que se puede utilizar para crear redes autónomas a escala junto con su plataforma de inteligencia de RAN de varios agentes.

Telenor Group, que atiende a más de 200 millones de clientes en todo el mundo, planea implementar AI Blueprint para la configuración de redes de telecomunicaciones para abordar los desafíos de configuración y mejorar la QoS durante la instalación de redes.

Detalles de implementación

Este marco impulsado por LLM agentivo utiliza Llama 3.1-70B-Instruct como el modelo de IA fundamental, debido a su rendimiento robusto en la comprensión del lenguaje natural, el razonamiento y la invocación de herramientas.

Los clientes tienen la flexibilidad de implementar este plan a través de:

  • Puntos de acceso de API de microservicios NIM™ alojados por NVIDIA en build.nvidia.com
  • Microservicios NIM locales para cumplir con los requisitos de privacidad y latencia

Los usuarios finales interactúan a través de una interfaz de usuario (IU) basada en Streamlit para enviar sus consultas o iniciar operaciones de red. Estas consultas son procesadas por un marco agente LangGraph, que orquesta los agentes especializados de LLM. 

Los agentes de LLM están equipados con herramientas especializadas que les permiten generar y ejecutar consultas SQL tanto en datos de KPI en tiempo real como históricos, calcular los promedios ponderados de ganancias de los datos recopilados, aplicar cambios de configuración y gestionar el entorno de BubbleRAN. 

Aprovechamos el ajuste de prompts para inyectar conocimiento contextual sobre la arquitectura de red de BubbleRAN, incluidos los detalles de la configuración y las interdependencias entre varios KPI y la lógica para equilibrar las concesiones para optimizar las ganancias medias ponderadas. 

El marco agente impulsado por LangGraph orquesta tres agentes especializados, cada uno con responsabilidades distintas que trabajan juntas para cerrar el bucle de supervisión, configuración y validación. Una vez que el usuario inicializa la red con los parámetros seleccionados, puede elegir entre una sesión de supervisión con un agente de supervisión o realizar una consulta directa al agente de configuración para comprender los impactos de los parámetros y el estado de la red.

A continuación, se muestra un desglose de cada agente y su funcionalidad: 

 1. Agente de monitorización
Este agente realiza un seguimiento continuo del promedio ponderado de parámetros preseleccionados en intervalos de tiempo definidos por el usuario (predeterminado: 10 segundos) en una base de datos de indicadores clave de rendimiento (KPI) de BubbleRAN en tiempo real. Cuando detecta la degradación del rendimiento debido a la reducción del promedio ponderado de un parámetro específico, eleva el problema al usuario para la autorización del siguiente paso.

2. Agente de configuración
El agente de configuración puede activarse con la transferencia del agente de supervisión o con consultas directas de usuarios sobre la optimización de parámetros o el estado de la red. Analiza los datos históricos y luego razona sobre las tendencias analizadas y el conocimiento específico de un ámbito sobre las interdependencias y las compensaciones de parámetros. En función de su análisis, sugiere valores de parámetros mejorados al usuario y espera su confirmación.

3. Agente de validación
Una vez confirmados los ajustes de parámetros, el agente de validación reinicia la red con la nueva configuración de parámetros. Evalúa los parámetros actualizados a lo largo de un período de validación configurable por el usuario y calcula la ganancia media ponderada resultante. Si la ganancia media ponderada en tiempo real se deteriora aún más, vuelve automáticamente a la configuración estable anterior. De lo contrario, confirma el éxito y actualiza la IU con la nueva configuración.

En resumen, nuestro marco permite la optimización de redes continua e inteligente a través de un ciclo de agentes, donde los agentes de LLM especializados trabajan juntos para supervisar, analizar y validar cambios de parámetros en tiempo real. Equipados con herramientas para analizar datos de KPI en tiempo real e históricos y con conocimiento especializado sobre los parámetros de red y las compensaciones, estos agentes proporcionan recomendaciones respaldadas por datos y un razonamiento explicativo. Este diseño de bucle cerrado garantiza que el rendimiento de la red siga siendo autónomo pero controlable por el usuario, lo que permite a los usuarios mantener un rendimiento óptimo al tiempo que conservan el control en cada punto de decisión.

Para más detalles técnicos, explore la tarjeta Blueprint.

NVIDIA NIM

NVIDIA NIM, parte de NVIDIA AI Enterprise, es un entorno de ejecución fácil de usar diseñado para acelerar la implementación de IA generativa en toda su empresa. Este microservicio versátil admite modelos de comunidades abiertas colaborativas y modelos de NVIDIA AI Foundation del catálogo de API de NVIDIA, así como modelos de IA personalizados. NIM se basa en el servidor de inferencia NVIDIA Triton™, una plataforma de código abierto potente y escalable para implementar modelos de IA y está optimizado para la inferencia de modelos de lenguaje de gran tamaño (LLM) en las GPU NVIDIA con NVIDIA TensorRT-LLM. NIM está diseñado para facilitar la inferencia de IA sin interrupciones con el mayor rendimiento y la menor latencia, al tiempo que preserva la precisión de las predicciones. Ahora puede implementar aplicaciones de IA en cualquier lugar con confianza, ya sea en las instalaciones o en la nube.

NVIDIA NeMo Retriever

NeMo Retriever es un conjunto de microservicios CUDA-X que permiten la búsqueda semántica de datos empresariales para ofrecer respuestas de alta precisión utilizando la ampliación de recuperación. Los desarrolladores pueden utilizar estos microservicios acelerados por GPU para tareas específicas, como la incorporación, la codificación y el almacenamiento de grandes volúmenes de datos, la interacción con las bases de datos relacionales existentes y la búsqueda de información relevante para responder a preguntas empresariales.

La IA generativa puede analizar grandes volúmenes de datos de sensores de equipos para predecir posibles fallos o problemas. Esto ayuda a los técnicos a anticipar problemas antes de que ocurran, lo que permite un mantenimiento oportuno y minimiza el tiempo de inactividad.

El análisis con IA generativa proporciona a los técnicos información práctica y recomendaciones basadas en datos en tiempo real. Esto les permite tomar decisiones informadas con respecto a las reparaciones, las actualizaciones y la optimización de redes.

La IA generativa puede automatizar tareas repetitivas y rutinarias, como la generación de órdenes de trabajo, la programación de citas y la creación de documentación. Esto permite a los técnicos centrarse más en los problemas complejos y el servicio de atención al cliente.

Optimice las operaciones de red con IA generativa

Al aprovechar la IA de NVIDIA, las empresas de telecomunicaciones pueden reducir el tiempo de inactividad de las redes, aumentar la productividad de los técnicos de campo y ofrecer una mejor calidad de servicio a los clientes. Empiece poniéndose en contacto con nuestro equipo de expertos o explorando recursos adicionales.

Recursos

La IA generativa en la práctica: ejemplos de implementaciones empresariales que han tenido éxito

Descubra cómo las empresas de telecomunicaciones crearon modelos de lenguaje de gran tamaño (LLM) de misión crítica, con sistemas NVIDIA DGX y el marco NeMo, para simplificar su negocio, aumentar la satisfacción de los clientes y lograr el retorno más rápido y alto.

Parte 1: Guía para principiantes sobre modelos de lenguaje de gran tamaño

Obtenga una introducción a los LLM y cómo las empresas pueden beneficiarse de ellos.

Parte 2: Cómo los LLM abren nuevas oportunidades para las empresas

Explore cómo los modelos de lenguaje de gran tamaño (LLM) realizan las tareas de procesamiento de lenguaje natural tradicionales, incluida la generación de contenido, el resumen, la traducción, la clasificación y el soporte para chatbots.

Diagrama de arquitectura de NVIDIA AI Blueprint para configuración de red de telecomunicaciones.