Video di NVIDIA DRIVE

Il team NVIDIA DRIVE innova costantemente, sviluppando soluzioni end-to-end per la guida autonoma che trasformano il settore.

Scopri le nostre ultime innovazioni per AV

Seleziona la scheda qui sotto per saperne di più sul processo.

  • NVIDIA DRIVE Labs
  • NVIDIA DRIVE Dispatch

Video brevi che mostrano gli elementi fondamentali della nostra tecnologia per veicoli autonomi.

 

Migliorare la simulazione AV con l'IA generativa

In questo episodio di DRIVE Labs, discutiamo di tre importanti innovazioni di NVIDIA che utilizzano l'IA generativa come il text-to-simulation per creare ambienti realistici, generare comportamenti di guida naturali e modificare gli scenari risultanti per consentire una valutazione e un training AV rigorosi.

 

Guida autonoma end-to-end: una panoramica

Il modello di guida end-to-end di NVIDIA combina rilevamento, tracciamento, previsione e pianificazione in un'unica rete con un design minimalista. L’input di pianificazione proviene direttamente da una mappa dettagliata con vista panoramica dall'alto generata dai dati dei sensori.

 

L'assistenza sulle norme stradali basata su LLM semplifica la guida

Adattare il comportamento di guida ai nuovi ambienti, abitudini e leggi è una sfida di lunga data nella guida autonoma. LLaDA (Large Language Driving Assistant) è una rete LLM che facilita la guida in luoghi sconosciuti fornendo indicazioni in tempo reale sulle norme stradali locali in diverse lingue, sia per i conducenti umani che per i veicoli autonomi.

 

Ricostruzione auto-supervisionata di scenari di guida dinamici

La simulazione dei veicoli autonomi è efficace solo se può riprodurre con precisione il mondo reale. L'esigenza di accuratezza aumenta, e diventa sempre più difficile da ottenere, man mano che gli scenari si fanno più dinamici e complessi. In questo episodio scopriamo EmerNeRF, un metodo per ricostruire scenari di guida dinamici.

 

Garantire la precisione con la sintesi dinamica delle viste

Man mano che le case automobilistiche integrano l’autonomia nelle flotte, potrebbero sorgere delle difficoltà nell'estendere la tecnologia dei veicoli autonomi a diversi tipi di veicoli. In questa edizione di NVIDIA DRIVE Labs, approfondiamo l'argomento della robustezza della visuale ed esaminiamo come i recenti progressi offrono una soluzione che utilizza la sintesi dinamica delle viste.

 

La potatura dei modelli IA per il massimo delle prestazioni

HALP (Hardware-Aware Latency Pruning) è un nuovo metodo progettato per adattare le reti neurali convoluzionali (CNN) e le architetture basate su transformer per ottenere prestazioni in tempo reale. In questo video scopri come HALP ottimizza i modelli pre-addestrati per massimizzare l'utilizzo delle risorse di calcolo.

 

Portare la previsione dell’occupazione dei veicoli autonomi nella terza dimensione

Il concetto di “previsione dell’occupazione 3D” è fondamentale per lo sviluppo di sistemi di guida autonoma sicuri e solidi. In questo episodio superiamo il tradizionale approccio della vista dall'alto e presentiamo la tecnologia di percezione 3D di NVIDIA, che ha vinto la 3D Occupancy Prediction Challenge al CVPR 2023.

 

Maggiore precisione nell'aggiramento degli ostacoli per il parcheggio autonomo in spazi ristretti

Early Grid Fusion (EGF) è una nuova tecnica che migliora l’aggiramento degli ostacoli in prossimità durante il parcheggio automatico assistito. EGF combina telecamere con apprendimento automatico e sensori a ultrasuoni per rilevare e percepire con precisione gli ostacoli circostanti, fornendo una visione a 360 gradi dell'ambiente.

 

Migliorare i modelli di segmentazione IA per la sicurezza dei veicoli autonomi

La percezione precisa dell'ambiente è fondamentale per la sicurezza dei veicoli autonomi (AV), in particolare quando si affrontano condizioni sconosciute. In questo episodio di DRIVE Labs, esaminiamo un modello Vision Transformer chiamato SegFormer, che genera una robusta segmentazione semantica mantenendo un'elevata efficienza. Questo video descrive il meccanismo alla base di SegFormer che ne determina la robustezza e l'efficienza.

Brevi aggiornamenti dalla nostra flotta di veicoli autonomi (AV), che evidenziano i nuovi progressi.

 

Novembre 2023

Nell'ultima edizione di NVIDIA DRIVE Dispatch, scopri come generare ricostruzioni 4D da un solo viaggio e PredictionNet, una rete neurale profonda (DNN) che può essere utilizzata per prevedere il comportamento e le traiettorie future degli agenti stradali nelle applicazioni per veicoli autonomi. Abbiamo anche dato un'occhiata ai test per il New Car Assessment Program (NCAP) con NVIDIA DRIVE Sim.

 

Gennaio 2023

Scopri gli ultimi progressi compiuti da NVIDIA DRIVE in termini di percezione dei veicoli autonomi. In questo episodio utilizziamo sensori a ultrasuoni per rilevare l'altezza degli oggetti circostanti in aree a bassa velocità come i parcheggi. RadarNet DNN rileva lo spazio libero percorribile, mentre Stereo Depth DNN stima la geometria dell'ambiente.

 

Febbraio 2022

DRIVE Dispatch ritorna per la seconda stagione. In questo episodio mostriamo i progressi nel clustering radar end-to-end basato su DNN, Real2Sim, il monitoraggio del conducente e degli occupanti e molto altro ancora.

 

Luglio 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella previsione del movimento del traffico, nel rilevamento della segnaletica stradale, nella visualizzazione dei dati sintetici 3D e molto altro ancora.

 

Giugno 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nella percezione del percorso percorribile, nella localizzazione di telecamere e radar, nel rilevamento dei parcheggi e molto altro ancora.

 

Marzo 2021

In questo episodio di NVIDIA DRIVE Dispatch, mostriamo i progressi nei dati sintetici per migliorare il training della DNN, la percezione solo radar per prevedere i movimenti futuri, la creazione di MapStream per mappe HD in crowdsourcing e molto altro ancora.

 

Febbraio 2021

Scopri gli ultimi progressi in DepthNet, nel rilevamento della segnaletica stradale, nella stima dell'egomotion multi-radar, nel tracciamento delle caratteristiche tra più telecamere e molto altro ancora.

 

Gennaio 2021

Scopri i progressi nel rilevamento dei parcheggi, la localizzazione 3D nel rilevamento dei luoghi di interesse, la nostra prima guida autonoma realizzata utilizzando una mappa e un piano stradale MyRoute generati automaticamente e la stima delle sospensioni.

 

Dicembre 2020

Scopri i progressi nella classificazione e nell'elusione degli scooter, nel rilevamento dei semafori, nella stabilità dei cuboidi 2D, nello spazio 3D libero dalle annotazioni della telecamera, nella pipeline di percezione dei lidar e nella percezione di fanali e di luci posteriori e della strada.

Ricevi gli ultimi video DRIVE direttamente nella tua casella di posta con la newsletter di NVIDIA Automotive.