Lösungen: KI-Workflows
Verfolgen Sie Objekt- und Kundenbewegungen mit mehreren Kameras im gesamten Geschäft.
Einzelhandelsgeschäfte gewinnen wertvolle Einblicke in die Bewegung von Objekten und Kunden, indem sie Computer-Vision-KI auf viele Kameras anwenden, die mehrere physische Bereiche abdecken. Der anpassbare Workflow für Multi-Camera-Tracking (MTMC) von NVIDIA bietet Ihnen einen Ausgangspunkt, um Ihre Entwicklung in Gang zu bringen – ohne von Grund auf neu beginnen zu müssen – und spart Monate an Entwicklungszeit. Der Workflow bietet auch eine validierte Vorgehensweise bis zum Produktivbetrieb für die Verfolgung von Objekten mit Kameras in Geschäften, Lagern und Distributionszentren.
Dieser KI-Workflow nutzt das NVIDIA DeepStream SDK, vortrainierte Modelle und neue, hochmoderne Microservices, um fortschrittliche MTMC-Funktionen bereitzustellen. Entwickler können jetzt einfacher Systeme erstellen, die Objektbewegungen in einem Einzelhandelsgeschäft oder Lagerhaus über mehrere Kameras hinweg verfolgen.
Dieser MTMC-Workflow verfolgt und verknüpft Objekte kameraübergreifend und verwaltet eine eindeutige ID für jedes Objekt. Diese ID wird nicht anhand personenbezogener biometrischer Daten, sondern über visuelle Einbettungen bzw. das Erscheinungsbild ermittelt, sodass die Privatsphäre vollständig gewahrt bleibt.
MTMC-Funktionen erhöhen die Sicherheit beim Self-Checkout und bilden die Grundlage für vollständig autonome Ladengeschäfte. Der Workflow kann außerdem darauf trainiert werden, ungewöhnliches Verhalten zu erkennen. Er kann mit Kubernetes bereitgestellt und skaliert und über Helm verwaltet werden.
Die vorangehende Abbildung stellt die End-to-End-Pipeline der Multi-Kamera-Tracking-App dar. Diese Referenzanwendung verwendet Live-Kamera-Feeds als Input, führt Objekterkennung, Objektverfolgung, Streaming-Analyse und Multi-Target-Multi-Kamera-Tracking durch, stellt verschiedene aggregierte Analysefunktionen als API-Endpunkte bereit und visualisiert die Ergebnisse über eine browserbasierte Benutzeroberfläche. Live-Kamera-Feeds werden durch Streaming von Videodateien im RTSP-Format simuliert. Verschiedene Analyse-Microservices sind über Kafka Message Broker verbunden und die verarbeiteten Ergebnisse werden in einer Datenbank für die Langzeitspeicherung gespeichert.
Dank der Bereitstellung hochpräziser Modelle ist es möglich, Objekte zu identifizieren und eine eindeutige globale ID zu generieren, die nicht auf personenbezogenen biometrischen Daten, sondern auf Einbettungen bzw. dem Erscheinungsbild basiert.
Ein hochmoderner Microservice nutzt Feature-Einbettungen für Objekte gemeinsam mit räumlich-zeitlichen Informationen, um Objekte kameraübergreifend eindeutig zu identifizieren und zuzuordnen.
Dieser über Cloud-native Microservices bereitgestellte KI-Workflow ermöglicht einen schnellen Einstieg in die Entwicklung und eine einfache Anpassung, um innerhalb kürzester Zeit Lösungen für die kameraübergreifende Objektverfolgung zu entwickeln.
KI-Workflows beschleunigen das Erzielen von KI-Ergebnissen. Dieser Multi-Kamera-KI-Workflow bietet Entwicklern eine Referenz, um schnell mit der Entwicklung einer flexiblen und skalierbaren MTMC-KI-Lösung zu beginnen.