El equipo del software NVIDIA DRIVE® está constantemente innovando, desarrollando redes neuronales profundas redundantes y diversas para sistemas de vehículos autónomos seguros y robustos que están transformando la industria.
Seleccione la pestaña a continuación para ver el proceso desde adentro.
Videos breves que analizan los algoritmos específicos de la conducción autónoma.
Probar los vehículos autónomos (AV) en escenarios de accidentes potenciales es fundamental para evaluar la seguridad, pero es difícil e inseguro hacerlo en el mundo real. En este episodio de DRIVE Labs, analizamos un nuevo método de los investigadores de NVIDIA denominado STRIVE (Stress-Test Drive), que genera automáticamente escenarios de accidentes potenciales en simulación para AV.
Para que los vehículos autónomos comprendan la complejidad de las normas de aparcamiento y reaccionen en consecuencia, es fundamental contar con un sistema de asistencia a las señales de aparcamiento (PSA) basado en algoritmos avanzados. En este episodio de DRIVE Labs, mostramos cómo la pila de software de NVIDIA DRIVE AV aprovecha las DNN y los algoritmos de visión por ordenador más avanzados para mejorar el aparcamiento autónomo en escenarios reales. Estas técnicas pueden detectar, rastrear y clasificar una amplia variedad de señales de tráfico de estacionamiento e intersecciones viales en tiempo real.
Comprender las señales de límite de velocidad puede parecer una tarea sencilla, pero rápidamente puede volverse más compleja en situaciones en las que se aplican diferentes restricciones a diferentes carriles o cuando se conduce en un nuevo país. Este episodio de DRIVE Labs muestra cómo la percepción en vivo basada en IA puede ayudar a los vehículos autónomos a comprender mejor las complejidades de las señales de límite de velocidad, utilizando señales tanto explícitas como implícitas.
Los sensores diversos y redundantes, como la cámara y el radar, son necesarios para la percepción de vehículos autónomos. Sin embargo, los sensores de radar que aprovechan solo el procesamiento tradicional pueden no estar a la altura de la tarea. En este video de DRIVE Labs, mostramos cómo la IA puede abordar las deficiencias del procesamiento tradicional de señales de radar para distinguir objetos en movimiento y estacionarios para reforzar la percepción de los vehículos autónomos.
En este episodio de DRIVE Labs, te mostramos la forma en que DRIVE IX percibe la atención, la actividad, la emoción, el comportamiento, la postura, el habla, los gestos y el ánimo del conductor. La percepción de Driver es un aspecto clave de la plataforma que permite que el sistema de vehículos autónomos se asegure de que el conductor esté alerta y prestando atención a la ruta. También permite que el sistema de IA lleve a cabo funciones en la cabina que son más intuitivas e inteligentes.
En este episodio de DRIVE Labs, mostraremos cómo se pueden usar las técnicas de IA definidas por el software para mejorar el rendimiento y la funcionalidad de nuestras redes neuronales profundas (DNN) de percepción de fuente de luz, lo que aumenta el rango, agrega capacidades de clasificación y más, en cuestión de semanas.
Los vehículos autónomos confían en la IA para anticipar los patrones de tráfico y maniobrar de forma segura en un entorno complejo. En este episodio sobre DRIVE Labs, demostramos la forma en que la red neuronal profunda PredictionNet puede predecir los caminos futuros de otros usuarios del camino mediante datos de mapas y la percepción en vivo.
El manejo de intersecciones de manera autónoma presenta un conjunto complejo de desafíos para los vehículos autónomos. Anteriormente en la serie DRIVE Labs, demostramos cómo detectamos intersecciones, semáforos y señales de tránsito con WaitNet DNN. Además, cómo clasificamos el estado del semáforo y el tipo de señal de tráfico con las DNN de LightNet y SignNet. En este episodio, vamos más allá para mostrar cómo NVIDIA usa la AI para percibir las diversas estructuras de intersección que un vehículo autónomo podría encontrar en un viaje diario.
El aprendizaje activo permite que la IA elija automáticamente los datos indicados para el entrenamiento. Un conjunto de DNN dedicadas analiza un grupo de cuadros de imágenes y selecciona aquellos que pueden resultar confusos. Esos cuadros se etiquetan y se agregan al conjunto de datos de entrenamiento. Este proceso puede mejorar la percepción de las DNN en condiciones difíciles, como la detección de peatones a la noche.
Los métodos tradicionales para procesar datos de los lidares presentan desafíos importantes, como la capacidad de detectar y clasificar diferentes tipos de objetos, escenas y condiciones climáticas, así como limitaciones en el rendimiento y la solidez. Nuestra red neuronal profunda LidarNet de vistas múltiples utiliza diversas perspectivas o vistas de la escena alrededor del vehículo para abordar estos desafíos de procesamiento de lidares.
La localización es una capacidad crítica para los vehículos autónomos, ya que calcula su ubicación tridimensional (3D) dentro de un mapa, incluida la posición 3D, la orientación 3D y cualquier incertidumbre en estos valores de posición y orientación. En este DRIVE Labs, mostramos cómo nuestros algoritmos de localización permiten lograr una alta precisión y robustez gracias a los sensores para mercados masivos y mapas HD.
Evolucionamos nuestra DNN LaneNet para Convertirla en la DNN MapNet de Alta Precisión. Esta evolución incluye un aumento en las clases de detección para cubrir también las marcas viales y los puntos de referencia verticales (por ejemplo, postes) además de la detección de líneas de carril. También aprovecha la detección integral que proporciona una inferencia más rápida en el vehículo.
La capacidad de detectar y reaccionar a objetos que se encuentran alrededor de todo el vehículo permite ofrecer una experiencia de conducción cómoda y segura. En este video de DRIVE Labs, explicamos por qué es esencial tener un proceso de fusión de sensores que pueda combinar las entradas de cámaras y de radares para lograr una sólida percepción envolvente.
Para escenarios de conducción muy complejos, es útil que el sistema de percepción del vehículo autónomo proporcione una comprensión más detallada de su entorno. Con nuestro enfoque DNN de segmentación panóptica, podemos obtener resultados tan precisos al segmentar el contenido de la imagen con precisión a nivel de píxel.
Las luces altas pueden aumentar significativamente el rango de visibilidad nocturna de los faros estándar; sin embargo, pueden crear un deslumbramiento peligroso para otros conductores. Hemos entrenado una red neuronal profunda (DNN) basada en cámaras, llamada AutoHighBeamNet, para generar automáticamente salidas de control para el sistema de luces altas del vehículo, lo que aumenta la visibilidad y la seguridad durante la conducción nocturna.
El seguimiento de características estima las correspondencias a nivel de píxel y los cambios a nivel de píxel entre cuadros de video adyacentes, proporcionando información temporal y geométrica crítica para la estimación del movimiento/velocidad del objeto, la autocalibración de la cámara y la odometría visual.
Nuestra red neuronal profunda ParkNet puede detectar un lugar de estacionamiento abierto en una variedad de condiciones. Observe cómo maneja los espacios interiores y exteriores, separados por marcas de carril simples, dobles o descoloridas, y también diferencia entre lugares ocupados, desocupados y parcialmente oscurecidos.
Este episodio de DRIVE Labs de edición especial muestra cómo NVIDIA DRIVE AV Software combina los componentes esenciales de percepción, localización y planificación/control para conducir de forma autónoma en las vías públicas alrededor de nuestra sede en Santa Clara, California.
El software NVIDIA DRIVE AV utiliza una combinación de DNN para clasificar las señales de tráfico y las luces. Observe cómo nuestro LightNet DNN clasifica la forma del semáforo y el estado (es decir, el color), mientras que SignNet DNN identifica el tipo de señal de tráfico.
Nuestro software para evitar colisiones Safety Force Field (SFF) actúa como supervisor independiente de las acciones del sistema de control y planificación principal del vehículo. La SFF verifica dos veces los controles que fueron elegidos por el sistema primario, y si los considera inseguros, vetará y corregirá la decisión del sistema primario.
El procesamiento de redes neuronales profundas (DNN) se ha convertido en una técnica importante basada en IA para la detección de carriles. Nuestro LaneNet DNN aumenta el rango de detección de carril, la recuperación de borde de carril y la robustez de detección de carril con precisión a nivel de píxel.
Calcular la distancia a los objetos utilizando datos de imagen de una sola cámara puede crear desafíos cuando se trata de terrenos montañosos. Con la ayuda de redes neuronales profundas, los vehículos autónomos pueden predecir distancias 3D a partir de imágenes 2D.
Vea cómo usamos nuestra configuración de seis cámaras para ver 360 grados alrededor del automóvil y rastrear objetos a medida que se mueven en el entorno circundante.
Los vehículos autónomos deben utilizar métodos computacionales y datos de sensores, como una secuencia de imágenes, para averiguar cómo se mueve un objeto en el tiempo.
ClearSightNet DNN está capacitado para evaluar la capacidad de las cámaras para ver claramente y determinar las causas de oclusiones, bloqueos y reducciones de visibilidad.
Descubra cómo WaitNet DNN puede detectar intersecciones sin usar un mapa.
Este trío de DNN genera y evalúa la confianza para las predicciones de la trayectoria central y la línea de carril, así como los cambios/divisiones/fusiones de carril.
Actualizaciones breves de nuestra flota de AV, que presentan nuevos avances.
Vea los últimos avances en percepción de vehículos autónomos de NVIDIA DRIVE. En este envío, utilizamos sensores ultrasónicos para detectar la altura de los objetos circundantes en zonas de baja velocidad como aparcamientos. La DNN RadarNet detecta el espacio libre para conducir, mientras que la DNN Stereo Depth estima la geometría del entorno.
DRIVE Dispatch regresa para la temporada 2. En este episodio, mostramos avances en clústeres basados en DNN de radar de extremo a extremo, Real2Sim, monitoreo de conductores y ocupantes, y más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en la predicción del movimiento del tráfico, detección de marcas viales, visualización de datos sintéticos en 3D y más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en datos sintéticos para mejorar el entrenamiento de DNN, percepción de solo radar para predecir el movimiento futuro, creación de MapStream para mapas HD de colaboración colectiva y más.
Conoce los avances más recientes de DepthNet, la detección de marcas en la ruta, la odometría visual, el seguimiento de características en varias cámaras y más.
Explora el progreso en la detección de lugares de estacionamiento, la ubicación 3D en detección de lugares destacados, nuestra primera conducción autónoma usando un plano del camino y un mapa de MyRoute generado automáticamente y la estimación de suspensión.
Conoce los avances para evitar y clasificar motonetas, la detección de luces de tráfico, la estabilidad de los cuboides 2D, el espacio libre 3D de las anotaciones de las cámaras, el proceso de percepción de los lidares y la percepción de luces de la calle, luces traseras y luces delanteras.
Recibe los últimos videos de DRIVE directamente en tu bandeja de entrada con el boletín sobre la industria automotriz de NVIDIA.