Lösungen für Edge-Computing

Moderne Unternehmen versuchen, Daten von Milliarden von Sensoren im Internet der Dinge (IoT) zu nutzen, die im Einzelhandel, in städtischen Straßen und in Krankenhäusern zu finden sind. Die Fähigkeit, mit Lösungen für Edge-Computing schneller Erkenntnisse zu gewinnen, kann nicht nur Zeit und Kosten sparen, sondern auch Leben retten. Dafür müssen Edge-Computing-Lösungen leistungsstarke, verteilte Rechenleistung, sichere und einfache Remote-Verwaltung sowie Kompatibilität mit branchenführenden Technologien bieten.

Die Vorzüge von beschleunigtem Edge-Computing

Intelligente Sensoren in IoT-Geräten

Geringere Latenz, schnellere Erkenntnisse

Da Edge-Computing Daten lokal und nicht in der Cloud oder in einem Rechenzentrum verarbeitet, verringern sich die Latenz und die benötigte Bandbreite. Dies ermöglicht Feedback und Entscheidungsfindung in Echtzeit. Intelligente Sensoren, die in viele IoT-Geräte eingebettet sind, können z. B. Daten von autonomen Maschinen und Kameras einer Fabrik verarbeiten und Mitarbeiter sofort über Unregelmäßigkeiten, Fehlfunktionen und vieles mehr informieren. Über eingebettete Geräte hinaus können Unternehmen Edge-Server in unmittelbarer Nähe zu den Sensoren platzieren, um die Latenz noch weiter zu reduzieren, üblicherweise in einem Serverraum oder in einem Schrank in einem Geschäft, Krankenhaus oder Lagerhaus.

Große und skalierbare Rechenleistung

Die physische Entfernung zwischen Daten und Rechenzentren führt zu Latenz. Durch die Einführung des beschleunigten Computings in der Peripherie – und somit näher an der Datenquelle – verringert Edge-Computing die Hauptursache dieser Latenz. Doch um die riesigen Datenmengen, die ständig generiert werden, lokal zu verarbeiten, benötigen eingebettete Geräte und Edge-Server dennoch die Leistung eines Rechenzentrums. Mit Grafikprozessoren und Software von NVIDIA müssen Unternehmen nicht länger Rechenleistung für Latenz oder Skalierbarkeit in der Peripherie opfern.

Grafikprozessoren und Software von NVIDIA
Edge-Computing-Plattform NVIDIA EGX

Verteilte, vereinfachte IT

Wenn Systeme auf mehrere Standorte verteilt sind, müssen Unternehmen neue Herausforderungen bei Versorgung, Bereitstellung, Verwaltung und Wartung bewältigen. Damit die Abläufe reibungslos funktionieren, ist es wichtig, Software remote auf den Geräten installieren zu können. Die NVIDIA EGX™ KI-Plattform – mit Helm-Charts, Containern, kontinuierlicher Integration und kontinuierlicher Bereitstellung (CI/CD) – optimiert und beschleunigt diesen Prozess. Mithilfe von NVIDIA EGX können IT-Spezialisten aktualisierte KI-Container mühelos innerhalb weniger Minuten bereitstellen.

Der GPU-Operator von NVIDIA EGX automatisiert die Installation und Konfiguration aller Komponenten, die für GPU-Computing im Kubernetes-Cluster erforderlich sind. Komponenten wie NVIDIA-Treiber, Container-Runtimes, Geräte-Plug-Ins und Überwachung werden in Containern auf Kubernetes als Dienste ausgeführt, sodass nur ein einzelnes Image für CPU-und GPU-Knoten verwaltet werden muss.

Branchenübergreifend beschleunigtes Edge Computing

Die NVIDIA NVIDIA EGX KI-Plattform bietet die Leistung von beschleunigtem KI-Computing mit einem einfach zu implementierenden, Cloud-nativen Software-Stack, einer großen Auswahl validierter Server und Geräte sowie einem riesigen Ökosystem aus Partnern, die Produkte und Dienstleistungen mit und für EGX anbieten.

Medizin und Gesundheitswesen

Fertigung

Einzelhandel

Smart Cities

Telekommunikation

KI in der Peripherie mit EGX beschleunigen

Die NVIDIA EGX-Plattform bietet die Leistung von beschleunigtem KI-Computing mit einem einfach zu implementierenden, Cloud-nativen Software-Stack, einer großen Auswahl validierter Server und Geräte sowie einem riesigen Ökosystem aus Partnern, die Produkte und Dienstleistungen mit und für EGX anbieten.

  • Edge-Computing-Software
  • Edge-Computing-Infrastruktur
  • Edge-Verwaltung
NVIDIA EGX Edge-Computing-Software

Edge-Computing-Software

Schnelle und einfache Versorgung von GPU-Servern mit NVIDIA EGX, einem Cloud-nativen, skalierbaren Edge-First Software-Stack. Eine der wichtigsten Komponenten des Stacks ist der NVIDIA GPU-Operator, der die Bereitstellung aller erforderlichen Komponenten für GPU-fähige Kubernetes-Cluster standardisiert und automatisiert.

Der NVIDIA NGC™-Katalog verfügt über ein umfangreiches Angebot an GPU-beschleunigter Software für Edge-Computing, inklusive Helm-Charts für die Kubernetes-Bereitstellung. Mit dem NGC-Katalog erhalten Sie einfachen Zugriff auf die wichtigsten Softwarecontainer für KI und Datenwissenschaft, vorab trainierte Modelle und SDKs, die alle von NVIDIA abgestimmt, getestet und optimiert wurden. Mit dem-NGC Katalog lassen sich maßgeschneiderte Lösungen erstellen und bereitstellen, die leistungsstark, sicher und skalierbar sind. 

NVIDIA EGX-Plattform

Edge-Computing-Infrastruktur

Nutzen Sie die Leistung und Vielseitigkeit der GPUs und Netzwerktechnologie von NVIDIA in der Peripherie mit der NVIDIA EGX-Plattform. Das EGX-Hardware-Portfolio beginnt mit der energieeffizienten NVIDIA® Jetson-Produktfamilie für Aufgaben wie Bilderkennung und Sensorfusion. Das Angebot reicht bis zu einem vollen Rack mit NVIDIA T4 Tensor-Core-GPU-Servern, die mehr als 10.000 Tera-Operationen pro Sekunde (TOPS) leisten und hunderte Nutzer mit Echtzeit-Spracherkennung und anderen komplexen KI-Erfahrungen bedienen können.

NVIDIA EGX platform

Edge-Verwaltung

NVIDIA Fleet Command ist eine hybride Cloud-Plattform für die Verwaltung und Skalierung von KI in der Peripherie. Mit dem NVIDIA Fleet Command können Sie Ihre Bereitstellungen in der Peripherie ganz einfach verwalten und skalieren. Egal, ob es sich um Dutzende oder Millionen Peripherie-Geräte handelt, Sie können KI in wenigen Minuten sicher und aus der Ferne im gesamten Unternehmen bereitstellen.