Scopri le nostre ultime innovazioni in AV.
Il team del software NVIDIA DRIVE™ innova costantemente, sviluppando reti neurali profonde ridondanti e diversificate per sistemi di guida autonoma sicuri e solidi che stanno rivoluzionando il settore.
Seleziona la scheda sotto saperne di più.
Video brevi sugli specifici algoritmi di guida autonoma.
In questo episodio di DRIVE Labs, mostriamo come DRIVE IX percepisce l'attenzione, l'attività, lo stato emotivo, il comportamento, la postura, il linguaggio, i gesti e l'umore del conducente. La percezione del conducente è un aspetto chiave della piattaforma che consente al sistema AV di verificare che il conducente sia attento alla strada. Permette inoltre al sistema IA di eseguire le funzioni del cruscotto più intuitive e intelligenti.
In questo episodio di DRIVE Labs, mostriamo come le tecniche di IA definite dal software possano essere utilizzate per migliorare significativamente le prestazioni e la funzionalità della nostra rete DNN per la percezione della fonte luminosa, aumentando la copertura, aggiungendo le capacità di classificazione e non solo, in poche settimane.
Le auto a guida autonoma si affidano all'IA per prevedere schemi di traffico e manovrarsi con sicurezza in ambienti complessi. In questo episodio di DRIVE Labs, dimostriamo come la nostra rete neurale profonda PredictionNet è in grado di prevedere percorsi futuri di altri utenti della strada utilizzando la percezione in tempo reale e i dati delle mappe.
La gestione autonoma degli incroci presenta una serie complessa di problematiche per le auto a guida autonoma. Nelle serie precedenti di DRIVE Labs, abbiamo dimostrato come rileviamo gli incroci, i semafori e i segnali stradali con la DNN WaitNet. Inoltre abbiamo descritto la nostra classificazione dello stato dei semafori e dei segnali con le DNN LightNet e SignNet. In questo episodio, andiamo avanti e dimostriamo come NVIDIA usa l'IA pe percepire la varietà delle strutture di incroci che un veicolo autonomo potrebbe incontrare in un percorso quotidiano.
Il learning attivo consente all'IA di scegliere automaticamente i dati di training corretti. Un insieme di DNN dedicate passa attraverso un pool di frame, segnalando quelli non idonei. Tali frame vengono quindi etichettati e aggiunti al set di dati di training. Questo processo può migliorare la percezione della DNN in condizioni difficili, come il rilevamento notturno dei pedoni.
I metodi tradizionali per l'elaborazione dei dati lidar pongono sfide significative, come la capacità di rilevare e classificare diversi tipi di oggetti, scene e condizioni meteorologiche, nonché limitazioni in termini di prestazioni e affidabilità. La nostra rete neurale profonda LidarNet multi-view utilizza molteplici prospettive, o viste, della scena intorno all'auto per affrontare queste sfide di elaborazione lidar.
La localizzazione è una capacità critica per i veicoli autonomi che calcola la loro posizione tridimensionale (3D) all'interno di una mappa, tra cui la posizione 3D, l'orientamento 3D e le eventuali incertezze in questi valori di posizione e orientamento. In questo DRIVE Labs, mostriamo come i nostri algoritmi di localizzazione consentono di ottenere un'elevata precisione e affidabilità utilizzando sensori di massa e mappe HD.
Guarda come si è evoluta la nostra rete LaneNet DNN nella MapNet DNN ad alta precisione. Questa evoluzione include l'aumento delle classi di rilevamento in modo da coprire anche i segnali stradali e gli elementi verticali (come i pali) oltre al rilevamento della segnaletica sul manto stradale. Sfrutta inoltre il rilevamento end-to-end che offre una maggiore inferenza in auto.
La capacità di rilevare e reagire agli oggetti intorno al veicolo rende possibile esperienze di guida pratiche e sicure. In questo video di DRIVE Labs, spieghiamo perché è fondamentale avere una pipeline di fusione dei sensori per combinare gli input di videocamere e radar e percepire accuratamente ciò che circonda il veicolo.
Brevi aggiornamenti della nostra flotta di veicoli autonomi (AV), che evidenziano nuove scoperte.
In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nei dati sintetici per migliorare il training della DNN, la percezione solo radar per prevedere i movimenti futuri, la creazione di MapStream per mappe HD in crowdsourcing e non solo.
Scopri gli ultimi progressi in DepthNet, il rilevamento della segnaletica stradale, stima dell'egomotion multi-radar, il tracciamento delle funzionalità tra più videocamere e altro ancora.
Scopri i progressi nel rilevamento dei parcheggi, nel rilevamento dei luoghi di interesse in 3D, la nostra prima guida autonoma realizzata utilizzando una mappa e un percorso stradale generati automaticamente con MyRoute e la stima della sospensione.
Scopri i progressi nella classificazione e nell'elusione degli scooter, il rilevamento del semaforo, la stabilità cuboide 2D, lo spazio libero 3D dalle annotazioni della fotocamera, la pipeline di percezione dei lidar e la percezione di fari/fanalini di coda/luci della strada.
Ricevi gli ultimi video DRIVE direttamente nella tua casella di posta con la newsletter di NVIDIA Automotive.