Generative KI für Netzwerkbetriebszentren

Planen, bauen und betreiben Sie Telekommunikationsnetzwerke sicher mit generativer KI.

Workloads

Generative KI

Branchen

Telekommunikation

Geschäftsziel

Risikominderung

Produkte

NVIDIA AI Enterprise
NVIDIA NIM Microservices
NVIDIA NeMo

Generative KI beschleunigt die Netzwerkkonfiguration, die Bereitstellung und den Betrieb

Telekommunikationsunternehmen gaben 2024 schätzungsweise fast 295 Milliarden US-Dollar an Kapitalausgaben (CapEx) und über 1 Billion US-Dollar an Betriebskosten (OpEx) aus, einschließlich der Ausgaben für manuelle Prozesse für die Netzwerkplanung und -wartung. In einem Telekommunikationsnetz umfassen Konfiguration und Optimierung die Verwaltung einer Vielzahl voneinander abhängiger Parameter, die sich direkt auf die Netzwerkleistung, das Benutzererlebnis und die Spektrumseffizienz für Millionen von Kunden und Endbenutzern auswirken. Diese Einstellungen müssen von Telekommunikationsnetzwerktechnikern regelmäßig angepasst werden, basierend auf der Tageszeit, dem Nutzerverhalten, der Mobilität, Störungen und Dienstarten. 

Generative KI, die große Telekommunikationsmodelle (LTMs) und KI-Agenten unterstützt, ermöglicht die nächste Generation der KI im Netzwerkbetrieb und unterstützt Telekommunikationsunternehmen bei der Optimierung ihrer OpEx, der effizienten Nutzung ihres CapEx und der Erschließung neuer Möglichkeiten für die Monetarisierung. NVIDIA entwickelte eine agentische KI-Lösung, um Autonomie in diese dynamische Umgebung zu bringen, indem sie Echtzeit-Netzwerk-KPIs beobachtet, datengestützte Entscheidungen trifft und Parameter automatisch anpasst. 

Im Gegensatz zu herkömmlichen regelbasierten Systemen hat ein KI-Agent die Fähigkeit wahrzunehmen, komplexe Kompromisse zu durchdenken, aus Rückkopplungsschleifen zu lernen und sich bei Bedarf mithilfe von Rückmeldungen durch den Menschen an neue Bedingungen anzupassen. Er kann auch Änderungen über verschiedene Ebenen und Anbieter hinweg orchestrieren und koordinierte Aktionen wie den Lastausgleich, die Koordination von Interferenzen zwischen Zellen oder die Energieeinsparung in leicht belasteten Bereichen ermöglichen. Dieses Maß an autonomer Steuerung verbessert nicht nur die Effizienz und die Servicequalität (QoS), sondern reduziert auch die Komplexität des Betriebs und die Zeit bis zur Lösung von Problemen in dichten Umgebungen mit hoher Nachfrage. 

 

Steigerung der Netzwerkleistung und Effizienz mit beschleunigtem Computing

Globale Telekommunikationsunternehmen untersuchen, wie sie neue KI-Anwendungen kostengünstig an den Rand von 5G- und kommenden 6G-Netzwerken bringen können. Mit NVIDIA beschleunigtem Computing und KI können Telekommunikationsunternehmen, Cloud Service Providers (CSPs) und Unternehmen leistungsstarke, Cloud-native Netzwerke – sowohl fest als auch drahtlos – mit verbesserter Energieeffizienz und Sicherheit aufbauen. 

NVIDIA AI Foundry, die KI-Schmiede für generative KI

Die NVIDIA Ai Foundry – bestehend aus NVIDIA KI-Foundation-Modellen, dem Framework und Tools von NVIDIA NeMo™ sowie der NVIDIA DGX™ Cloud – bietet Unternehmen eine End-to-End-Lösung für die Entwicklung maßgeschneiderter generativer KI. 

Amdocs, ein führender Software- und Diensteanbieter, plant die Entwicklung maßgeschneiderter großer Sprachmodelle (LLMs) für die globale Telekommunikationsindustrie im Wert von 1,7 Billionen US-Dollar mit dem NVIDIA AI Foundry-Dienst auf Microsoft Azure. Im Bereich Netzwerkbetrieb untersuchen Amdocs und NVIDIA Möglichkeiten zur Entwicklung von Lösungen, die Konfigurations-, Abdeckungs- und Leistungsprobleme bei Ihrem Auftreten beheben, darunter:  

  • Entwicklung eines generativen KI-Assistenten zur Beantwortung von Fragen zur Netzwerkplanung
  • Bereitstellung von Erkenntnissen und Priorisierung bei Netzwerkausfällen und Leistungseinbußen
  • Optimierung der Abläufe durch den Einsatz generativer KI zur Überwachung, Vorhersage und Behebung von Netzwerkproblemen, zur Verwaltung von Ressourcen in Echtzeit, zur Überwachung der Netzwerkdiagnose, zur Analyse der Auswirkungen auf Dienste und Benutzer, zur Priorisierung von Empfehlungen auf Grundlage der Auswirkungen und zur Ausführung der Orchestrierungsaktivierung

 

ServiceNow integriert generative KI-Funktionen in seine Now-Plattform und bereichert alle Workflows mit Now Assist, seinem generativen KI-Assistenten. ServiceNow nutzt NeMo und NVIDIA Triton™ Inference Server (beide Teil von NVIDIA AI Enterprise), NVIDIA AI Foundation-Modelle und DGX-Systeme, um generative KI-Modelle für Telekommunikationskunden zu entwickeln, anzupassen und bereitzustellen. Dazu gehören Anwendungsfälle im Netzwerkbetrieb:

  • Automatisierte Dienstsicherung: Umfassende komplexe technische Daten, die bei Netzwerkausfällen generiert und durch generative KI zusammengefasst werden, werden aufbereitet und entsprechend verarbeitet.
  • Optimierte Dienstbereitstellung: Mit generativer KI werden Aufträge dynamisch erstellt, um menschliche Fehler zu reduzieren, eine präzise Dienstbereitstellung zu gewährleisten und die Kundenzufriedenheit und -loyalität zu steigern.
  • Optimiertes Netzwerkdesign: Diverse Netzwerkdienste, lokale Konfigurationen und Regeln werden verwaltet, um das Netzwerkdesign zu verbessern.

 

NeMo bietet eine End-to-End-Lösung – einschließlich Support auf Unternehmensniveau, Sicherheit und Stabilität – für die gesamte LLM-Pipeline, von der Datenverarbeitung über das Training bis hin zur Inferenz von generativen KI-Modellen. Mit NeMo können Telcos LLMs schnell trainieren, anpassen und in großem Maßstab bereitstellen, was die Zeit bis zur Lösung verkürzt und gleichzeitig den ROI erhöht.

Die NVIDIA AI Foundry umfasst NVIDIA KI-Foundation-Modelle, das Framework und die Tools von NeMo sowie die NVIDIA DGX™ Cloud und bietet Unternehmen eine End-to-End-Lösung für die Entwicklung maßgeschneiderter generativer KI-Modelle.

Sobald generative KI-Modelle entwickelt, fein abgestimmt und trainiert sind, ermöglicht NeMo die nahtlose Bereitstellung durch optimierte Inferenz in praktisch jedem Rechenzentrum oder jeder Cloud. NeMo Retriever, eine Sammlung von generativen KI-Microservices, bietet erstklassige Informationsabfrage mit niedrigster Latenz, höchstem Durchsatz und maximaler Datensicherheit, sodass Unternehmen Erkenntnisse in Echtzeit gewinnen können. NeMo Retriever erweitert generative KI-Anwendungen um unternehmenstaugliche RAG-Funktionen (Retrieval-Augmented Generation), die mit Geschäftsdaten verbunden werden können, wo immer sich diese befinden.

NVIDIA DGX Cloud ist eine KI-Training-as-a-Service-Plattform, die ein serverloses Erlebnis für Entwickler in Unternehmen bietet – optimiert für generative KI. Unternehmen können leistungsoptimierte, unternehmensgerechte NVIDIA KI-Foundation-Modelle direkt über einen Browser nutzen und diese mit NeMo auf DGX Cloud anhand ihrer eigenen Daten anpassen.

NVIDIA AI Enterprise für beschleunigte Datenwissenschaft und Logistikoptimierung

Die NVIDIA AI Enterprise-Software-Suite bietet Unternehmen schnellere Ergebnisse für KI- und Machine-Learning-Initiativen und verbessert gleichzeitig die Kosteneffizienz. Mithilfe von Analysen und maschinellem Lernen können Telekommunikationsbetreiber die Anzahl der von Außendiensttechnikern erledigten Aufträge maximieren, für jeden Auftrag das richtige Personal einsetzen, die Routenplanung auf Basis von Echtzeit-Wetterdaten dynamisch optimieren, auf Tausende von Standorten skalieren und Milliarden von Dollar an Wartungskosten einsparen.

AT&T transformiert seine Betriebsabläufe und verbessert die Nachhaltigkeit durch den Einsatz von NVIDIA-gestützter KI für die Verarbeitung von Daten, die Optimierung der Flottensteuerung und die Entwicklung digitaler Avatare für die Unterstützung und Schulung von Mitarbeitern. AT&T hat den NVIDIA RAPIDS™ Accelerator für Apache Spark eingeführt, um die energieeffizienten GPUs in seinen KI- und Datenwissenschafts-Pipelines optimal zu nutzen. Bei den mit Spark RAPIDS optimierten Daten- und KI-Pipelines spart AT&T etwa die Hälfte seiner Cloud-Computing-Kosten ein, erzielt eine höhere Performance und reduziert gleichzeitig seinen CO₂-Fußabdruck.

AT&T, das eines der größten Außendienstteams betreibt, testet derzeit die Software NVIDIA® cuOpt™, um komplexere Herausforderungen bei der Routenplanung und Optimierung von Technikern zu bewältigen. In frühen Tests lieferte cuOpt Lösungen in 10 Sekunden, während die gleiche Berechnung auf x86-CPUs 1.000 Sekunden dauerte. Die Ergebnisse führten zu einer 90-prozentigen Reduzierung der Cloud-Kosten und ermöglichten es Technikern, jeden Tag mehr Serviceanrufe abzuschließen.

Quantiphi, ein innovatives Digital-Engineering-Unternehmen mit KI-Schwerpunkt, arbeitet mit führenden Telekommunikationsunternehmen zusammen, um maßgeschneiderte LLMs zur Unterstützung von Außendiensttechnikern zu entwickeln. Mithilfe von LLM-gestützten virtuellen Assistenten, die als Co-Piloten fungieren, unterstützt Quantiphi Außendiensttechniker bei der Lösung von Netzwerkproblemen und der Verwaltung von Service-Tickets, die von Endkunden erstellt wurden.

„Ask AT&T war ursprünglich auf der ChatGPT-Funktionalität von OpenAI aufgebaut. Ask AT&T ist jedoch auch mit anderen LLMs kompatibel, darunter LLaMA 2 von Meta und die Open-Source-Transformer von Falcon. Bei der Entwicklung und Anpassung von LLMs arbeiten wir eng mit NVIDIA zusammen. Verschiedene LLMs eignen sich für unterschiedliche Anwendungen und haben unterschiedliche Kostenstrukturen. Wir integrieren diese Flexibilität und Effizienz von Grund auf.“

Andy Markus, Chief Data Officer, AT&T

Erste Schritte mit generativer KI für den Netzwerkbetrieb

NVIDIA AI-Blueprints ermöglichen eine skalierbare Automatisierung, indem sie einen Workflow bereitstellen, mit dem Entwickler ihre eigenen KI-Agenten entwickeln können. Mit diesen können Entwickler maßgeschneiderte KI-Agenten erstellen und bereitstellen, die logisch denken, planen und Maßnahmen ergreifen können, um große Datenmengen schnell zu analysieren, Echtzeit-Erkenntnisse zusammenzufassen und zu destillieren. 

Der NVIDIA KI-Blueprint für die Konfiguration von Telekommunikationsnetzwerken bietet bewährte Bausteine für den Netzwerkbetrieb in mehreren Bereichen. Dieser KI-Blueprint ermöglicht es Entwicklern, Netzwerkingenieuren, Telekommunikationsunternehmen und Anbietern, die Konfiguration von Parametern für Funkzugangsnetzwerke (Radio Access Network, RAN) mithilfe eines agentischen LLM-Frameworks zu automatisieren. 

Autonome Netzwerke bieten die Möglichkeit, die Betriebskosten (OpEx) besser zu verwalten. Der KI-Blueprint für die Konfiguration von Telekommunikationsnetzen erleichtert dies durch die Bereitstellung einer modularen KI-Architektur und Automatisierungsabläufe, die für konsistente, skalierbare Bereitstellungen erforderlich sind. Durch generative KI unterstützt, ermöglicht dieser KI-Blueprint Netzwerkingenieuren, adaptive Intelligenz hinzuzufügen, indem sie Probleme vorhersagen, die Leistung optimieren und Entscheidungen automatisieren.

BubbleRAN und Telenor setzen NVIDIA AI Blueprint für die Konfiguration von Telekommunikationsnetzen ein

Der KI-Blueprint für die Konfiguration von Telekommunikationsnetzen basiert auf der Software von BubbleRAN auf einer Cloud-nativen Infrastruktur, die zusammen mit der Multi-Agenten-RAN-Intelligenzplattform für den Aufbau autonomer Netzwerke in großem Maßstab genutzt werden kann. 

Die Telenor Group, die weltweit über 200 Millionen Kunden bedient, plant die Einführung des KI-Blueprints für die Konfiguration von Telekommunikationsnetzen, um Konfigurationsherausforderungen zu bewältigen und die Dienstqualität (QoS) während der Netzwerkinstallation zu verbessern.

Details zur Implementierung

Dieses agentische LLM-gestützte Framework nutzt Llama 3.1-70B-Instruct als grundlegendes KI-Modell aufgrund seiner robusten Leistung im Bereich des Verständnisses natürlicher Sprache, des logischen Denkens und des Werkzeugaufrufs. 

Kunden haben die Flexibilität, den Blueprint folgendermaßen bereitzustellen: 

  • Die gehosteten NIM™ Mikrodienste von NVIDIA auf API-Endpunkten unter build.nvidia.com
  • Lokale NIM-Microservices zur Erfüllung von Datenschutz- und Latenzanforderungen

Endbenutzer interagieren über eine Streamlit-basierte Benutzeroberfläche (UI), um ihre Anfragen zu senden oder Netzwerkoperationen zu initiieren. Diese Abfragen werden von einem agentischen LangGraph-Framework verarbeitet, das die spezialisierten LLM-Agenten orchestriert. 

Die LLM-Agenten sind mit spezialisierten Tools ausgestattet, mit denen sie SQL-Abfragen sowohl für Echtzeit- als auch historische KPI-Daten generieren und ausführen, den gewichteten Durchschnittsgewinn der gesammelten Daten berechnen, Konfigurationsänderungen vornehmen und die BubbleRAN-Umgebung verwalten können. 

Wir nutzen Prompt-Tuning, um kontextbasiertes Wissen über die BubbleRAN-Netzwerkarchitektur einzubringen, einschließlich der Details zur Einrichtung und der Abhängigkeiten zwischen verschiedenen KPIs sowie der Logik zur Abwägung von Kompromissen, um gewichtete Durchschnittsgewinne zu optimieren. 

Das auf LangGraph basierende agentische Framework orchestriert drei spezialisierte Agenten mit jeweils unterschiedlichen Verantwortlichkeiten, die zusammenarbeiten, um die Schleife aus Überwachung, Konfiguration und Validierung zu schließen. Sobald der Benutzer das Netzwerk mit ausgewählten Parametern initialisiert hat, kann er zwischen einer Überwachungssitzung mit einem Überwachungsagenten oder einer direkten Abfrage des Konfigurationsagenten wählen, um die Auswirkungen von Parametern und den Netzwerkstatus zu erfassen.

Unten finden Sie eine Aufschlüsselung der einzelnen Agent und ihrer Funktionalität: 

 1. Überwachungsagent
Dieser Agent verfolgt kontinuierlich den gewichteten Durchschnittsgewinn vorausgewählter Parameter in benutzerdefinierten Zeitintervallen (Standard: 10 Sekunden) in einer Echtzeit-BubbleRAN-KPI-Datenbank. Wenn der Agent einen Leistungsabfall aufgrund einer Verringerung des gewichteten Durchschnittsgewinns eines bestimmten Parameters feststellt, wird das Problem dem Benutzer gemeldet mit der Aufforderung, den nächsten Schritt zu genehmigen.

2. Konfigurationsagent
Der Konfigurationsagent kann durch die Übergabe des Überwachungsagenten oder durch direkte Benutzeranfragen zur Parameteroptimierung oder zum Netzwerkzustand aktiviert werden. Der Agent analysiert historische Daten und leitet daraus anhand der analysierten Trends und fachspezifischen Kenntnissen über Parameterabhängigkeiten und Kompromisse Schlussfolgerungen ab. Basierend auf seiner Analyse schlägt es dem Benutzer verbesserte Parameterwerte vor und wartet auf die Bestätigung des Benutzers.

3. Validierungsagent
Sobald die Parameteranpassungen bestätigt sind, startet der Validierungsagent das Netzwerk mit der neuen Parameterkonfiguration neu. Der Agent bewertet die aktualisierten Parameter über einen benutzerkonfigurierbaren Validierungszeitraum und berechnet den daraus resultierenden gewichteten Durchschnittsgewinn. Wenn sich der gewichtete Echtzeit-Durchschnittsgewinn weiter verschlechtert, erfolgt automatisch eine Zurücksetzung auf die vorherige stabile Konfiguration. Andernfalls wird der Erfolg bestätigt und die UI mit den neuen Einstellungen aktualisiert. 

Zusammenfassend ermöglicht unser Framework die kontinuierliche, intelligente Netzwerkoptimierung über eine agentische Schleife, in der spezialisierte LLM-Agenten zusammenarbeiten, um Parameteränderungen in Echtzeit zu überwachen, zu analysieren und zu validieren. Ausgestattet mit Tools zur Analyse von Echtzeit- und historischen KPI-Daten sowie mit fachspezifischem Wissen über Netzwerkparameter und Kompromisse liefern diese Agenten datengestützte Empfehlungen und nachvollziehbare Argumentation. Dieses geschlossene Regelkreissystem stellt sicher, dass die Netzwerkleistung autonom und dennoch benutzerkontrollierbar bleibt, sodass Benutzer die optimale Leistung aufrechterhalten und gleichzeitig die Kontrolle über jeden Entscheidungspunkt behalten können.

Weitere technische Details finden Sie in der Blueprint-Karte.

NVIDIA NIM

NVIDIA NIM ist als Teil von NVIDIA AI Enterprise eine benutzerfreundliche Laufzeitumgebung, die die Bereitstellung von generativer KI in Ihrem Unternehmen beschleunigen soll. Dieser vielseitige Microservice unterstützt offene Community-Modelle und NVIDIA KI-Foundation-Modelle aus dem NVIDIA API-Katalog sowie maßgeschneiderte KI-Modelle. NIM basiert auf dem NVIDIA Triton™ Inference Server, einer leistungsstarken und skalierbaren Open-Source-Plattform für die Bereitstellung von KI-Modellen und ist optimiert für die Inferenz großer Sprachmodelle (LLMs) auf NVIDIA GPUs mit NVIDIA TensorRT-LLM. NIM ist entwickelt, um die nahtlose KI-Inferenz mit dem höchsten Durchsatz und der niedrigsten Latenz zu ermöglichen und gleichzeitig die Genauigkeit von Prognosen zu erhalten. Sie können jetzt KI-Anwendungen überall mit Zuversicht bereitstellen, ob vor Ort oder in der Cloud.

NVIDIA NeMo Retriever

NeMo Retriever ist eine Sammlung von CUDA-X-Microservices, die die semantische Suche nach Unternehmensdaten ermöglichen, um hochgenaue Antworten mithilfe von Retrieval-Erweiterung zu liefern. Entwickler können diese GPU-beschleunigten Microservices für bestimmte Aufgaben nutzen, darunter die Datenaufnahme, Kodierung und Speicherung großer Datenmengen, die Interaktion mit bestehenden relationalen Datenbanken und die Suche nach relevanten Informationen zur Beantwortung von Geschäftsfragen.

Generative KI kann große Datenmengen von Gerätesensoren analysieren, um potenzielle Ausfälle oder Probleme vorherzusagen. Dies hilft Technikern, Probleme vorherzusehen, bevor sie auftreten, was eine rechtzeitige Wartung ermöglicht und Ausfallzeiten minimiert.

Generative KI-gestützte Analysen bieten Technikern umsetzbare Erkenntnisse und Empfehlungen auf Basis von Echtzeitdaten. Dadurch können Sie fundierte Entscheidungen in Bezug auf Reparaturen, Aktualisierungen und Netzwerkoptimierungen treffen.

Generative KI kann sich wiederholende und routinemäßige Aufgaben wie die Generierung von Arbeitsaufträgen, die Planung von Terminen und die Erstellung von Dokumentationen automatisieren. Dadurch können sich Techniker mehr auf komplexe Probleme und den Kundenservice konzentrieren.

Optimieren Sie den Netzwerkbetrieb mit generativer KI

Durch den Einsatz von NVIDIA-KI können Telekommunikationsunternehmen die Ausfallzeiten des Netzwerks reduzieren, die Produktivität der Außendiensttechniker erhöhen und den Kunden eine bessere Servicequalität bieten. Legen Sie los und wenden Sie sich an unser Expertenteam oder erkunden Sie zusätzliche Ressourcen.

Ressourcen

Generative KI in der Praxis: Beispiele für erfolgreiche Enterprise-Bereitstellungen

Erfahren Sie, wie Telekommunikationsunternehmen geschäftskritische LLMs entwickelt haben, die von NVIDIA DGX-Systemen und dem NeMo Framework unterstützt werden, um ihr Geschäft zu vereinfachen, die Kundenzufriedenheit zu erhöhen und die schnellste und höchste Rendite zu erzielen.

Teil 1: Ein Leitfaden für Anfänger zu großen Sprachmodellen

Erhalten Sie eine Einführung in große Sprachmodelle (LLMs) und wie Unternehmen von ihnen profitieren können.

Teil 2: Wie große Sprachmodelle (LLMs) neue Möglichkeiten für Unternehmen erschließen

Erfahren Sie, wie herkömmliche Aufgaben zur Verarbeitung natürlicher Sprache von großen Sprachmodellen (LLMs) ausgeführt werden, einschließlich der Generierung von Inhalten, Zusammenfassung, Übersetzung, Klassifizierung und Chatbot-Unterstützung.

Architekturdiagramm des NVIDIA KI-Blueprint für die Konfiguration von Telekommunikationsnetzen.