Video DI NVIDIA DRIVE

Il team NVIDIA DRIVE innova costantemente, sviluppando soluzioni complete per la guida autonoma che trasformano il settore. 

Scopri le nostre ultime innovazioni in AV

Seleziona la scheda sotto saperne di più.

  • NVIDIA DRIVE Labs
  • NVIDIA DRIVE Dispatch

Video brevi che mostrano gli elementi fondamentali della nostra tecnologia per veicoli autonomi.

 

Aiutare i veicoli autonomi a interpretare meglio i limiti di velocità

Interpretare i segnarli dei limiti di velocità sembra cosa semplice, ma può complicarsi presto in situazioni che prevedono restrizioni per corsie diverse o quando si guida all'estero. Nel nostro ultimo episodio di #DRIVELabs, scopri come la percezione in tempo reale basata su #IA aiuta i veicoli autonomi a comprendere meglio i segnali dei limiti di velocità, attraverso indizi espliciti e impliciti.

 

Come l'IA migliora la percezione radar per i veicoli autonomi

Sensori diversificati e ridondanti, come fotocamera e radar, sono necessari per la percezione AV. Tuttavia, i sensori radar che sfruttano solo l'elaborazione tradizionale potrebbero non essere all'altezza sufficienti. In questo video di DRIVE Labs, mostriamo come l'intelligenza artificiale può affrontare le carenze dell'elaborazione tradizionale dei segnali radar nel distinguere oggetti mobili e stazionari per rafforzare la percezione AV.

 

Algoritmi IA di NVIDIA DRIVE IX per una percezione intuitiva in cabina

In questo episodio di DRIVE Labs, mostriamo come DRIVE IX percepisce l'attenzione, l'attività, lo stato emotivo, il comportamento, la postura, il linguaggio, i gesti e l'umore del conducente. La percezione del conducente è un aspetto chiave della piattaforma che consente al sistema AV di verificare che il conducente sia attento alla strada. Permette inoltre al sistema IA di eseguire le funzioni del cruscotto più intuitive e intelligenti.

 

Ottimizzare la percezione della sorgente luminosa con l'IA definita dal software

In questo episodio di DRIVE Labs, mostriamo come le tecniche di IA definite dal software possano essere utilizzate per migliorare significativamente le prestazioni e la funzionalità della nostra rete DNN per la percezione della fonte luminosa, aumentando la copertura, aggiungendo le capacità di classificazione e non solo, in poche settimane.

 

La mossa giusta: come l'IA aiuta le auto a guida autonoma a prevedere il futuro

Le auto a guida autonoma si affidano all'IA per prevedere schemi di traffico e manovrarsi con sicurezza in ambienti complessi. In questo episodio di DRIVE Labs, dimostriamo come la nostra rete neurale profonda PredictionNet è in grado di prevedere percorsi futuri di altri utenti della strada utilizzando la percezione in tempo reale e i dati delle mappe.

 

Ecco come l'IA aiuta i veicoli autonomi a percepire le strutture degli incroci

La gestione autonoma degli incroci presenta una serie complessa di problematiche per le auto a guida autonoma. Nelle serie precedenti di DRIVE Labs, abbiamo dimostrato come rileviamo gli incroci, i semafori e i segnali stradali con la DNN WaitNet. Inoltre abbiamo descritto la nostra classificazione dello stato dei semafori e dei segnali con le DNN LightNet e SignNet. In questo episodio, andiamo avanti e dimostriamo come NVIDIA usa l'IA pe percepire la varietà delle strutture di incroci che un veicolo autonomo potrebbe incontrare in un percorso quotidiano.

 

Ecco come il learning attivo migliora il rilevamento dei pedoni notturni

Il learning attivo consente all'IA di scegliere automaticamente i dati di training corretti. Un insieme di DNN dedicate passa attraverso un pool di frame, segnalando quelli non idonei. Tali frame vengono quindi etichettati e aggiunti al set di dati di training. Questo processo può migliorare la percezione della DNN in condizioni difficili, come il rilevamento notturno dei pedoni.

 

Laser Focused: prospettiva avanzata da LidarNet multi-view per le auto a guida autonoma

I metodi tradizionali per l'elaborazione dei dati lidar pongono sfide significative, come la capacità di rilevare e classificare diversi tipi di oggetti, scene e condizioni meteorologiche, nonché limitazioni in termini di prestazioni e affidabilità. La nostra rete neurale profonda LidarNet multi-view utilizza molteplici prospettive, o viste, della scena intorno all'auto per affrontare queste sfide di elaborazione lidar.

 

Perso nello spazio? La localizzazione aiuta le auto a guida autonoma a trovare la loro strada

La localizzazione è una capacità critica per i veicoli autonomi che calcola la loro posizione tridimensionale (3D) all'interno di una mappa, tra cui la posizione 3D, l'orientamento 3D e le eventuali incertezze in questi valori di posizione e orientamento. In questo DRIVE Labs, mostriamo come i nostri algoritmi di localizzazione consentono di ottenere un'elevata precisione e affidabilità utilizzando sensori di massa e mappe HD.

 

Come l'IA legge le scritte sulla strada

Guarda come si è evoluta la nostra rete LaneNet DNN nella MapNet DNN ad alta precisione. Questa evoluzione include l'aumento delle classi di rilevamento in modo da coprire anche i segnali stradali e gli elementi verticali (come i pali) oltre al rilevamento della segnaletica sul manto stradale. Sfrutta inoltre il rilevamento end-to-end che offre una maggiore inferenza in auto.

 

IA su strada: la fusione di radar per videocamere surround elimina gli angoli morti nelle auto a guida autonoma

La capacità di rilevare e reagire agli oggetti intorno al veicolo rende possibile esperienze di guida pratiche e sicure. In questo video di DRIVE Labs, spieghiamo perché è fondamentale avere una pipeline di fusione dei sensori per combinare gli input di videocamere e radar e percepire accuratamente ciò che circonda il veicolo.

 

Percezione ultra precisa: ecco come l'IA aiuta i veicoli autonomi a vedere oltre

Per scenari di guida molto complessi, è importante che il sistema di percezione del veicolo autonomo sia in grado di comprendere in modo più dettagliato ciò che lo circonda. Con l'approccio DNN alla segmentazione panottica, possiamo ottenere risultati granulari segmentando il contenuto delle immagini con un'accuratezza nell'ordine dei pixel.

 

Accecato dalla luce? Ecco come l'IA evita il bagliore per gli altri veicoli

I fari lunghi possono aumentare significativamente la visibilità di notte dei fari standard, tuttavia possono determinare bagliori pericolosi per gli altri conducenti. Abbiamo addestrato una rete DNN basata su videocamera, chiamata AutoHighBeamNet, per generare automaticamente output controllati per il sistema di abbaglianti del veicolo, aumentando la visibilità e la sicurezza di notte.

 

Giusto in tempo: monitoraggio delle funzioni per una guida autonoma affidabile

Il monitoraggio delle funzioni stima la corrispondenza a livello di pixel e le modifiche tra frame video adiacenti, fornendo informazioni geometriche e temporali critiche per la stima di oggetti in movimento/velocità, l'autocalibrazione della videocamera e l'odometria ottica.

 

Cerchi un parcheggio? L'IA lo trova per te

La nostra rete neurale profonda ParkNet è in grado di individuare un parcheggio libero in una vasta gamma di circostanze. Guarda come gestisce gli spazi interni ed esterni, separati da segnaletica singola, doppia o sbiadita, e come differenzia tra posti occupati, non occupati e parzialmente oscurati.

 

Un giro nell'auto a guida autonoma di NVIDIA

Questo episodio di DRIVE Labs in edizione speciale mostra come il software NVIDIA DRIVE AV combina gli elementi essenziali di percezione, localizzazione e pianificazione/controllo per guidare autonomamente su strade pubbliche nei dintorni della nostra sede centrale a Santa Clara, California.

 

Classificazione dei segnali stradali e dei semafori con l'IA

Il software NVIDIA DRIVE AV utilizza una combinazione di reti DNN per classificare i segnali stradali e le luci. Guarda come il nostro DNN LightNet classifica i semafori (luci e frecce) e lo stato (il colore), mentre DNN SignNet identifica il tipo di segnale stradale.

 

Azzeramento degli incidenti con Safety Force Field

Il nostro software per la prevenzione degli incidenti SFF (Safety Force Field) funge da supervisore indipendente sulle azioni del sistema di pianificazione e controllo principale del veicolo. L'SFF controlla due volte i comandi scelti dal sistema principale, e se li ritiene non sicuri, annulla e corregge decisione del sistema.

 

Rilevamento corsia ad alta precisione

L'elaborazione di reti neurali profonde (DNN) si è rivelata un'importante tecnica basata su IA per il rilevamento delle corsie. La nostra LaneNet DNN aumenta il raggio di rilevamento, il recupero dei bordi e la solidità del rilevamento corsie con una precisione nell'ordine dei pixel.

 

Percepisci una nuova dimensione

Il calcolo della distanza dagli oggetti utilizzando i dati delle immagini di una singola videocamera può creare difficoltà in caso di terreni collinari. Grazie all'aiuto di reti neurali profonde, i veicoli autonomi sono in grado di prevedere distanze in 3D partendo da immagini 2D.

 

Visione dei dintorni dalla videocamera

Guarda come utilizziamo la configurazione della nostra videocamera per vedere a 360° l'auto e tracciamo gli oggetti nei loro spostamenti circostanti.

 

Prevedere il futuro con le reti RNN

I veicoli autonomi devono utilizzare metodi computazionali e dati del sensore, come una sequenza di immagini, per capire come un oggetto si muova nel tempo.

 

Rete neurale profonda ClearSightNet

ClearSightNet DNN è concepito per valutare la capacità delle telecamere di vedere e determinare chiaramente cause di occlusione, blocchi e riduzioni di visibilità.

 

Rete neurale profonda WaitNet

Scopri come il DNN di WaitNet è in grado di rilevare le intersezioni senza utilizzare una mappa.

 

Assieme per la percezione del percorso

Questo trio di DNN infonde fiducia e valuta la sicurezza per previsioni del percorso centrale e della linea di corsia nonché per modifiche/suddivisioni/unioni di corsia.

Brevi aggiornamenti della nostra flotta di veicoli autonomi (AV), che evidenziano nuove scoperte.

 

Gennaio 2023

Scopri i progressi compiuti da NVIDIA DRIVE in termini di percezione per i veicoli autonomi. In questo episodio, utilizziamo sensori a ultrasuoni per rilevare l'altezza degli oggetti circostanti in aree a bassa velocità, come i parcheggi. RadarNet DNN rileva lo spazio libero accessibile, mentre la Stereo Depth DNN stima la geometria dell'ambiente.

 

Febbraio 2022

DRIVE Dispatch ritorna per la stagione 2. In questo episodio, mostriamo i progressi nel clustering radar end-to-end basato su DNN, Real2Sim, monitoraggio di conducenti e passeggeri e non solo.

 

Luglio 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella previsione del movimento del traffico, nel rilevamento della segnaletica stradale, nella visualizzazione dei dati sintetici 3D e altro ancora.

 

Giugno 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella percezione del percorso percorribile, nella localizzazione di telecamere e radar, nel rilevamento dei parcheggi e altro ancora.

 

Marzo 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nei dati sintetici per migliorare il training della DNN, la percezione solo radar per prevedere i movimenti futuri, la creazione di MapStream per mappe HD in crowdsourcing e non solo.

 

Febbraio 2021

Scopri gli ultimi progressi in DepthNet, il rilevamento della segnaletica stradale, stima dell'egomotion multi-radar, il tracciamento delle funzionalità tra più videocamere e altro ancora.

 

Gennaio 2020

Scopri i progressi nel rilevamento dei parcheggi, nel rilevamento dei luoghi di interesse in 3D, la nostra prima guida autonoma realizzata utilizzando una mappa e un percorso stradale generati automaticamente con MyRoute e la stima della sospensione.

 

Dicembre 2020

Scopri i progressi nella classificazione e nell'elusione degli scooter, il rilevamento del semaforo, la stabilità cuboide 2D, lo spazio libero 3D dalle annotazioni della fotocamera, la pipeline di percezione dei lidar e la percezione di fari/fanalini di coda/luci della strada.

Ricevi gli ultimi video DRIVE direttamente nella tua casella di posta con la newsletter di NVIDIA Automotive.