Il team NVIDIA DRIVE innova costantemente, sviluppando soluzioni complete per la guida autonoma che trasformano il settore.
Seleziona la scheda sotto saperne di più.
Video brevi che mostrano gli elementi fondamentali della nostra tecnologia per veicoli autonomi.
Un sistema PSA (Parking Sign Assist) avanzato basato su algoritmi è fondamentale per consentire ai veicoli autonomi di comprendere la complessità delle regole per il parcheggio e reagire di conseguenza. In questo episodio di DRIVE Labs, mostriamo come lo stack software NVIDIA DRIVE AV sfrutta DNN e algoritmi di computer vision all'avanguardia per migliorare il parcheggio autonomo in scenari reali. Queste tecniche sono in grado di rilevare, tracciare e classificare una vasta gamma di segnali stradali di parcheggio e incroci in tempo reale.
Interpretare i segnarli dei limiti di velocità sembra cosa semplice, ma può complicarsi presto in situazioni che prevedono restrizioni per corsie diverse o quando si guida all'estero. Nel nostro ultimo episodio di #DRIVELabs, scopri come la percezione in tempo reale basata su #IA aiuta i veicoli autonomi a comprendere meglio i segnali dei limiti di velocità, attraverso indizi espliciti e impliciti.
Sensori diversificati e ridondanti, come fotocamera e radar, sono necessari per la percezione AV. Tuttavia, i sensori radar che sfruttano solo l'elaborazione tradizionale potrebbero non essere all'altezza sufficienti. In questo video di DRIVE Labs, mostriamo come l'intelligenza artificiale può affrontare le carenze dell'elaborazione tradizionale dei segnali radar nel distinguere oggetti mobili e stazionari per rafforzare la percezione AV.
In questo episodio di DRIVE Labs, mostriamo come DRIVE IX percepisce l'attenzione, l'attività, lo stato emotivo, il comportamento, la postura, il linguaggio, i gesti e l'umore del conducente. La percezione del conducente è un aspetto chiave della piattaforma che consente al sistema AV di verificare che il conducente sia attento alla strada. Permette inoltre al sistema IA di eseguire le funzioni del cruscotto più intuitive e intelligenti.
In questo episodio di DRIVE Labs, mostriamo come le tecniche di IA definite dal software possano essere utilizzate per migliorare significativamente le prestazioni e la funzionalità della nostra rete DNN per la percezione della fonte luminosa, aumentando la copertura, aggiungendo le capacità di classificazione e non solo, in poche settimane.
Le auto a guida autonoma si affidano all'IA per prevedere schemi di traffico e manovrarsi con sicurezza in ambienti complessi. In questo episodio di DRIVE Labs, dimostriamo come la nostra rete neurale profonda PredictionNet è in grado di prevedere percorsi futuri di altri utenti della strada utilizzando la percezione in tempo reale e i dati delle mappe.
La gestione autonoma degli incroci presenta una serie complessa di problematiche per le auto a guida autonoma. Nelle serie precedenti di DRIVE Labs, abbiamo dimostrato come rileviamo gli incroci, i semafori e i segnali stradali con la DNN WaitNet. Inoltre abbiamo descritto la nostra classificazione dello stato dei semafori e dei segnali con le DNN LightNet e SignNet. In questo episodio, andiamo avanti e dimostriamo come NVIDIA usa l'IA pe percepire la varietà delle strutture di incroci che un veicolo autonomo potrebbe incontrare in un percorso quotidiano.
Il learning attivo consente all'IA di scegliere automaticamente i dati di training corretti. Un insieme di DNN dedicate passa attraverso un pool di frame, segnalando quelli non idonei. Tali frame vengono quindi etichettati e aggiunti al set di dati di training. Questo processo può migliorare la percezione della DNN in condizioni difficili, come il rilevamento notturno dei pedoni.
I metodi tradizionali per l'elaborazione dei dati lidar pongono sfide significative, come la capacità di rilevare e classificare diversi tipi di oggetti, scene e condizioni meteorologiche, nonché limitazioni in termini di prestazioni e affidabilità. La nostra rete neurale profonda LidarNet multi-view utilizza molteplici prospettive, o viste, della scena intorno all'auto per affrontare queste sfide di elaborazione lidar.
La localizzazione è una capacità critica per i veicoli autonomi che calcola la loro posizione tridimensionale (3D) all'interno di una mappa, tra cui la posizione 3D, l'orientamento 3D e le eventuali incertezze in questi valori di posizione e orientamento. In questo DRIVE Labs, mostriamo come i nostri algoritmi di localizzazione consentono di ottenere un'elevata precisione e affidabilità utilizzando sensori di massa e mappe HD.
Guarda come si è evoluta la nostra rete LaneNet DNN nella MapNet DNN ad alta precisione. Questa evoluzione include l'aumento delle classi di rilevamento in modo da coprire anche i segnali stradali e gli elementi verticali (come i pali) oltre al rilevamento della segnaletica sul manto stradale. Sfrutta inoltre il rilevamento end-to-end che offre una maggiore inferenza in auto.
La capacità di rilevare e reagire agli oggetti intorno al veicolo rende possibile esperienze di guida pratiche e sicure. In questo video di DRIVE Labs, spieghiamo perché è fondamentale avere una pipeline di fusione dei sensori per combinare gli input di videocamere e radar e percepire accuratamente ciò che circonda il veicolo.
Per scenari di guida molto complessi, è importante che il sistema di percezione del veicolo autonomo sia in grado di comprendere in modo più dettagliato ciò che lo circonda. Con l'approccio DNN alla segmentazione panottica, possiamo ottenere risultati granulari segmentando il contenuto delle immagini con un'accuratezza nell'ordine dei pixel.
I fari lunghi possono aumentare significativamente la visibilità di notte dei fari standard, tuttavia possono determinare bagliori pericolosi per gli altri conducenti. Abbiamo addestrato una rete DNN basata su videocamera, chiamata AutoHighBeamNet, per generare automaticamente output controllati per il sistema di abbaglianti del veicolo, aumentando la visibilità e la sicurezza di notte.
Il monitoraggio delle funzioni stima la corrispondenza a livello di pixel e le modifiche tra frame video adiacenti, fornendo informazioni geometriche e temporali critiche per la stima di oggetti in movimento/velocità, l'autocalibrazione della videocamera e l'odometria ottica.
La nostra rete neurale profonda ParkNet è in grado di individuare un parcheggio libero in una vasta gamma di circostanze. Guarda come gestisce gli spazi interni ed esterni, separati da segnaletica singola, doppia o sbiadita, e come differenzia tra posti occupati, non occupati e parzialmente oscurati.
Questo episodio di DRIVE Labs in edizione speciale mostra come il software NVIDIA DRIVE AV combina gli elementi essenziali di percezione, localizzazione e pianificazione/controllo per guidare autonomamente su strade pubbliche nei dintorni della nostra sede centrale a Santa Clara, California.
Il software NVIDIA DRIVE AV utilizza una combinazione di reti DNN per classificare i segnali stradali e le luci. Guarda come il nostro DNN LightNet classifica i semafori (luci e frecce) e lo stato (il colore), mentre DNN SignNet identifica il tipo di segnale stradale.
Il nostro software per la prevenzione degli incidenti SFF (Safety Force Field) funge da supervisore indipendente sulle azioni del sistema di pianificazione e controllo principale del veicolo. L'SFF controlla due volte i comandi scelti dal sistema principale, e se li ritiene non sicuri, annulla e corregge decisione del sistema.
L'elaborazione di reti neurali profonde (DNN) si è rivelata un'importante tecnica basata su IA per il rilevamento delle corsie. La nostra LaneNet DNN aumenta il raggio di rilevamento, il recupero dei bordi e la solidità del rilevamento corsie con una precisione nell'ordine dei pixel.
Il calcolo della distanza dagli oggetti utilizzando i dati delle immagini di una singola videocamera può creare difficoltà in caso di terreni collinari. Grazie all'aiuto di reti neurali profonde, i veicoli autonomi sono in grado di prevedere distanze in 3D partendo da immagini 2D.
Guarda come utilizziamo la configurazione della nostra videocamera per vedere a 360° l'auto e tracciamo gli oggetti nei loro spostamenti circostanti.
I veicoli autonomi devono utilizzare metodi computazionali e dati del sensore, come una sequenza di immagini, per capire come un oggetto si muova nel tempo.
ClearSightNet DNN è concepito per valutare la capacità delle telecamere di vedere e determinare chiaramente cause di occlusione, blocchi e riduzioni di visibilità.
Scopri come il DNN di WaitNet è in grado di rilevare le intersezioni senza utilizzare una mappa.
Questo trio di DNN infonde fiducia e valuta la sicurezza per previsioni del percorso centrale e della linea di corsia nonché per modifiche/suddivisioni/unioni di corsia.
Brevi aggiornamenti della nostra flotta di veicoli autonomi (AV), che evidenziano nuove scoperte.
Scopri i progressi compiuti da NVIDIA DRIVE in termini di percezione per i veicoli autonomi. In questo episodio, utilizziamo sensori a ultrasuoni per rilevare l'altezza degli oggetti circostanti in aree a bassa velocità, come i parcheggi. RadarNet DNN rileva lo spazio libero accessibile, mentre la Stereo Depth DNN stima la geometria dell'ambiente.
DRIVE Dispatch ritorna per la stagione 2. In questo episodio, mostriamo i progressi nel clustering radar end-to-end basato su DNN, Real2Sim, monitoraggio di conducenti e passeggeri e non solo.
In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella previsione del movimento del traffico, nel rilevamento della segnaletica stradale, nella visualizzazione dei dati sintetici 3D e altro ancora.
In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella percezione del percorso percorribile, nella localizzazione di telecamere e radar, nel rilevamento dei parcheggi e altro ancora.
In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nei dati sintetici per migliorare il training della DNN, la percezione solo radar per prevedere i movimenti futuri, la creazione di MapStream per mappe HD in crowdsourcing e non solo.
Scopri gli ultimi progressi in DepthNet, il rilevamento della segnaletica stradale, stima dell'egomotion multi-radar, il tracciamento delle funzionalità tra più videocamere e altro ancora.
Scopri i progressi nel rilevamento dei parcheggi, nel rilevamento dei luoghi di interesse in 3D, la nostra prima guida autonoma realizzata utilizzando una mappa e un percorso stradale generati automaticamente con MyRoute e la stima della sospensione.
Scopri i progressi nella classificazione e nell'elusione degli scooter, il rilevamento del semaforo, la stabilità cuboide 2D, lo spazio libero 3D dalle annotazioni della fotocamera, la pipeline di percezione dei lidar e la percezione di fari/fanalini di coda/luci della strada.
Ricevi gli ultimi video DRIVE direttamente nella tua casella di posta con la newsletter di NVIDIA Automotive.