A equipe de Software do NVIDIA DRIVE® está sempre inovando, desenvolvendo redes neurais profundas redundantes e diversas para sistemas autônomos seguros e eficientes que estão transformando o setor.
Selecione a guia abaixo para ver o processo por dentro.
Vídeos curtos que explicam algoritmos específicos de condução autônoma.
Testar veículos autônomos (AVs) em cenários potenciais de quase acidentes é crítico para avaliar a segurança, mas é difícil e inseguro de fazer no mundo real. Neste episódio de DRIVE Labs, discutimos um novo método dos pesquisadores da NVIDIA chamado STRIVE (Stress-Test Drive), que gera automaticamente cenários de acidentes potenciais em simulação para AVs.
Um sistema avançado baseado em algoritmos de Parking Sign Assist (PSA) é fundamental para que os veículos autônomos entendam a complexidade das regras de estacionamento e reajam de acordo. Neste episódio do DRIVE Labs, mostramos como a pilha de software NVIDIA DRIVE AV alavanca os DNNs de última geração e algoritmos de visão computadorizada para melhorar o estacionamento autônomo em cenários do mundo real. Estas técnicas podem detectar, rastrear e classificar em tempo real uma grande variedade de sinais de tráfego de estacionamento e cruzamentos de estradas.
Compreender as placas de limite de velocidade pode parecer uma tarefa simples, mas pode rapidamente se tornar mais complexo em situações em que diferentes restrições se aplicam a diferentes faixas ou ao dirigir em um novo país. Este episódio do DRIVE Labs mostra como a percepção ao vivo baseada em AI pode ajudar os antivírus a entender melhor as complexidades das placas de limite de velocidade, usando pistas explícitas e implícitas.
Sensores diversos e redundantes, como câmera e radar, são necessários para a percepção AV. No entanto, os sensores de radar que aproveitam apenas o processamento tradicional podem não estar à altura da tarefa. Neste vídeo do DRIVE Labs, mostramos como a AI pode resolver as deficiências do processamento de sinal de radar tradicional em distinguir objetos em movimento e estáticos para reforçar a percepção AV.
Neste episódio do DRIVE Labs, mostramos como o DRIVE IX detecta a atenção, as atividades, as emoções, o comportamento, a postura, a fala, os gestos e o humor do motorista. A detecção do motorista é um aspecto importante da plataforma que garante que o sistema de automóveis autônomos verifique se o motorista está alerta e prestando atenção na estrada. Ela também garante que o sistema de AI realize funções mais intuitivas e inteligentes na cabine do automóvel.
Neste episódio da série DRIVE Labs, mostramos como as técnicas de AI definidas por software podem ser usadas para melhorar significativamente o desempenho e a funcionalidade da rede neural profunda (DNN - Deep Neural Network) de percepção de fontes de luz em poucas semanas, aumentando o alcance, garantindo outros recursos de classificação e muito mais.
Os veículos autônomos contam com a AI para antecipar os padrões de tráfego e dirigir com segurança em um ambiente complexo. Neste episódio da DRIVE Labs, demonstramos como nossa rede neural profunda PredictionNet pode prever manobras futuras de outros motoristas na estrada usando a percepção dinâmica e os dados de mapas.
Lidar com cruzamentos de maneira autônoma é um desafio complexo para veículos autônomos. Nos episódios anteriores da série DRIVE Labs, mostramos como detectamos cruzamentos, semáforos e sinalização de trânsito com a DNN WaitNet. Além disso, explicamos como classificamos as luzes do semáforo e o tipo de sinalização com as DNNs LightNet e SignNet. Neste episódio, mostramos também como a NVIDIA usa AI para perceber a variedade de estruturas de cruzamento que um veículo autônomo pode encontrar diariamente ao dirigir.
O aprendizado ativo possibilita que a AI escolha automaticamente os dados de treinamento corretos. Diversas DNNs dedicadas analisam um conjunto de frames de imagens, sinalizando os frames considerados confusos. Esses frames são então rotulados e adicionados ao conjunto de dados de treinamento. Esse processo pode melhorar a percepção da DNN em condições difíceis, como a detecção noturna de pedestres.
Os métodos tradicionais de processamento de dados lidar apresentam desafios significativos, como a capacidade de detectar e classificar diferentes tipos de objetos, cenas e condições climáticas, bem como limitações no desempenho e na confiabilidade. A rede neural profunda Multi-View LidarNet usa várias perspectivas, ou visualizações, da cena em torno do carro para resolver esses desafios de processamento lidar.
A localização é um recurso essencial para veículos autônomos, calculando seu local tridimensional (3D) dentro de um mapa, incluindo a posição 3D, a orientação 3D e incertezas nesses valores de posição e orientação. Neste DRIVE Labs, mostramos como nossos algoritmos de localização possibilitam obter alta precisão e robustez usando os sensores de comercialização em massa e os mapas HD.
Veja como evoluímos nossa DNN LaneNet em nossa DNN MapNet de alta precisão. Essa evolução inclui um aumento nas classes de detecção para abranger também as marcações da estrada e os pontos de referência verticais (por exemplo, postes), além da detecção de linha de faixa. Ela também aproveita a detecção de ponta a ponta que proporciona inferência mais rápida no carro.
A capacidade de detectar e reagir a objetos em torno do veículo possibilita oferecer uma experiência de condução segura e confortável. Neste vídeo da DRIVE Labs, explicamos por que é essencial ter um pipeline de fusão de sensores que pode combinar as entradas de câmera e radar para uma percepção de surround avançada.
Para cenários de direção altamente complexos, é útil para o sistema de percepção do veículo autônomo fornecer uma compreensão mais detalhada de seus arredores. Com nossa abordagem DNN de segmentação panorâmica, podemos obter esses resultados refinados segmentando o conteúdo da imagem com precisão de nível de pixel.
As luzes de máximos podem aumentar significativamente a faixa de visibilidade noturna dos faróis padrão; no entanto, eles podem criar reflexos perigosos para outros motoristas. Treinamos uma rede neural profunda (DNN) baseada em câmera, chamada AutoHighBeamNet, para gerar automaticamente saídas de controle para o sistema de luzes de máximos do veículo, aumentando a visibilidade e a segurança da direção noturna.
Nossa rede neural profunda ParkNet pode detectar uma vaga de estacionamento aberta sob uma variedade de condições. Observe como ele lida com espaços internos e externos, separados por marcações de faixa única, dupla ou desbotada, bem como diferencia entre pontos ocupados, desocupados e parcialmente obscurecidos.
Esta edição especial do episódio do DRIVE Labs mostra como o software NVIDIA DRIVE AV combina os blocos de construção essenciais de percepção, localização e planejamento / controle para dirigir autonomamente em estradas públicas ao redor de nossa sede em Santa Clara, Califórnia.
O software NVIDIA DRIVE AV usa uma combinação de DNNs para classificar sinais de trânsito e semáforos. Veja como nosso LightNet DNN classifica a forma do semáforo (por exemplo, vertical versus horizontal) e o estado (ou seja, cor), enquanto o SignNet DNN identifica o tipo de sinal de trânsito.
Nosso software de prevenção de colisão Safety Force Field (SFF) atua como um supervisor independente nas ações do sistema de planejamento e controle primário do veículo. O SFF verifica novamente os controles que foram escolhidos pelo sistema primário e, se os considerar inseguros, vetará e corrigirá a decisão do sistema primário.
O processamento de redes neurais profundas (DNN) surgiu como uma importante técnica baseada em AI para detecção de faixas. Nosso LaneNet DNN aumenta o alcance de detecção de faixa, recuperação do acostamento da faixa e robustez de detecção de faixa com precisão de nível de pixel.
Calcular a distância para objetos usando dados de imagem de uma única câmera pode criar desafios quando se trata de terreno montanhoso. Com a ajuda de redes neurais profundas, os veículos autônomos podem prever distâncias 3D a partir de imagens 2D.
Veja como usamos nossa configuração de seis câmeras para ver 360 graus ao redor do carro e rastrear objetos conforme eles se movem no ambiente ao redor.
Os veículos autônomos devem usar métodos computacionais e dados do sensor, como uma sequência de imagens, para descobrir como um objeto está se movendo no tempo.
ClearSightNet DNN é treinado para avaliar a capacidade das câmeras de ver claramente e determinar as causas de oclusões, bloqueios e reduções na visibilidade.
Aprenda como o WaitNet DNN é capaz de detectar cruzamentos sem usar um mapa.
Este trio de DNNs constrói e avalia a confiança para o caminho central e as previsões de linha de faixa, bem como mudanças/divisões/fusões de faixa.
Atualizações rápidas da frota de automóveis autônomos, destacando as inovações mais recentes.
Veja os últimos avanços na percepção de veículos autônomos da NVIDIA DRIVE. Neste despacho, usamos sensores ultra-sônicos para detectar a altura dos objetos ao redor em áreas de baixa velocidade, como estacionamentos. O RadarNet DNN detecta o espaço livre dirigíveis, enquanto o DNN de Profundidade Estéreo estima a geometria do ambiente.
O DRIVE Dispatch retorna para a 2ª Temporada. Neste episódio, mostramos avanços no agrupamento baseado em DNN de radar de ponta a ponta, Real2Sim, monitoramento de motoristas e ocupantes e muito mais.
Neste episódio do NVIDIA DRIVE Dispatch, mostramos avanços na previsão do movimento do tráfego, detecção de marcação de estradas, visualização de dados sintéticos 3D e muito mais.
Neste episódio do NVIDIA DRIVE Dispatch, mostramos avanços em dados sintéticos para treinamento DNN aprimorado, percepção apenas de radar para prever movimentos futuros, criação de MapStream para mapas HD com crowdsourcing e muito mais.
Neste episódio de NVIDIA DRIVE Dispatch, mostramos avanços em dados sintéticos para treinamento DNN aprimorado, percepção apenas de radar para prever movimentos futuros, criação de MapStream para mapas HD com crowdsourcing e muito mais.
Veja os avanços mais atuais na DepthNet, detecção de marcações da estrada, estimativa de movimentação da câmera multirradar, monitoramento de recursos de várias câmeras e muito mais.
Confira os avanços na detecção de vagas de estacionamento, localização 3D na detecção de pontos de referência e nossa primeira viagem com condução autônoma usando um mapa do MyRoute gerado automaticamente e um plano da estrada, além da estimativa da suspensão.
Confira os avanços na classificação e desvio de scooters, detecção de semáforos, estabilidade cuboide 2D, espaço livre 3D das anotações da câmera, pipeline de percepção lidar e percepção de faróis/luzes traseiras/postes de luz.
Receba os vídeos mais atuais das séries DRIVE por e-mail com a newsletter NVIDIA Automotive.