El equipo de NVIDIA DRIVE está constantemente innovando y desarrollando soluciones de conducción autónoma integrales que transforman el sector.
Selecciona la pestaña siguiente para ver el proceso desde dentro.
Vídeos breves que ponen de relieve los elementos fundamentales de nuestra tecnología de vehículos autónomos.
Un sistema avanzado de auxiliar de señalización de estacionamiento (PSA) basado en algoritmos es fundamental para que los vehículos autónomos comprendan la complejidad de las reglas de estacionamiento y reaccionen en consecuencia. En este episodio de DRIVE Labs, mostramos cómo la pila de software NVIDIA DRIVE AV aprovecha las DNN de última generación, así como los algoritmos de visión computarizada, para mejorar el estacionamiento autónomo en situaciones del mundo real. Estas técnicas pueden detectar, rastrear y clasificar una amplia variedad de señales de tráfico de estacionamiento e intersecciones de carreteras en tiempo real.
Comprender las señales de límite de velocidad puede parecer coser y cantar, pero rápidamente puede convertirse en una tarea más compleja en situaciones en las que se aplican diferentes restricciones a diferentes carriles, o cuando se conduce en un nuevo país. En este episodio de DRIVE Labs, se muestra cómo la percepción en directo basada en IA ayuda a los vehículos autónomos a comprender mejor las complejidades de las señales de límite de velocidad mediante indicaciones explícitas e implícitas.
Los sensores diversos y redundantes, como la cámara y el radar, son necesarios para la percepción AV. Sin embargo, los sensores de radar que aprovechan solo el procesamiento tradicional pueden no estar a la altura de la tarea. En este vídeo de DRIVE Labs, mostramos cómo la IA puede abordar las deficiencias del procesamiento tradicional de señales de radar en la distinción de objetos en movimiento y estacionarios para reforzar la percepción AV.
En este episodio de DRIVE Labs, mostramos cómo DRIVE IX percibe la atención del conductor, la actividad, la emoción, el comportamiento, la postura, el habla, el gesto y el estado de ánimo. La percepción del conductor es un aspecto clave de la plataforma que permite al sistema de AV asegurarse de que un conductor está alerta y prestando atención a la carretera. También permite al sistema de IA realizar funciones de cabina más intuitivas e inteligentes.
En este episodio de DRIVE Labs, mostramos cómo se usan las técnicas de IA definidas por software para mejorar significativamente el rendimiento y la funcionalidad de nuestra red neuronal profunda (DNN) de la percepción de la fuente de luz (el rango creciente, la adición de capacidades de clasificación y mucho más) en cuestión de semanas.
Los vehículos autónomos se basan en la IA para anticipar los patrones de tráfico y maniobrar de forma segura en un entorno complejo. En este episodio de DRIVE Labs, demostramos cómo nuestra red neuronal profunda PredictionNet predice los movimientos que van a realizar otros conductores mediante datos cartográficos y de percepción en tiempo real.
La gestión autónoma de intersecciones presenta un conjunto complejo de desafíos para los coches autónomos. Anteriormente en la serie DRIVE Labs, demostramos cómo detectamos intersecciones, semáforos y señales de tráfico con la DNN WaitNet. También demostramos cómo clasificamos el estado del semáforo y el tipo de señal de tráfico con las DNN LightNet y SignNet. En este episodio, mostraremos cómo NVIDIA utiliza la IA para percibir la variedad de estructuras de intersección que un vehículo autónomo podría encontrar en un viaje diario.
El aprendizaje activo permite que la IA elija automáticamente los datos de entrenamiento adecuados. Un conjunto de DNN dedicadas pasa a través de un grupo de fotogramas de imagen, marcando los que considera que son confusos. Estos fotogramas se etiquetan y se añaden al conjunto de datos de entrenamiento. Este proceso puede mejorar la percepción de la DNN en condiciones difíciles, como la detección nocturna de peatones.
Los métodos tradicionales para procesar datos Lidar plantean desafíos significativos, como la capacidad de detectar y clasificar diferentes tipos de objetos, escenas y condiciones climáticas, así como limitaciones en el rendimiento y la robustez. Nuestra red neuronal profunda LidarNet multivista utiliza un repertorio de perspectivas, o vistas, de la escena alrededor del coche para abordar estos desafíos de procesamiento Lidar.
La localización es una funcionalidad esencial para los vehículos autónomos, ya que procesa su ubicación tridimensional (3D) en un mapa, incluida la posición 3D, la orientación 3D y cualquier incerteza en esos valores de posición y orientación. En este DRIVE Labs, te mostramos cómo los algoritmos de localización hacen posible la obtención de una gran precisión y seguridad con mapas en alta definición y sensores disponibles en el mercado.
Descubre cómo ha evolucionado nuestra DNN de LaneNet hasta convertirse en la DNN de MapNet de alta precisión. Esta evolución ha traído consigo un aumento en las clases de detección para cubrir también las marcas viales y los puntos de referencia verticales (por ejemplo, los postes), además de la detección de líneas de carril. También aprovecha la detección integral, que ofrece una inferencia más rápida en el vehículo.
La capacidad de detectar y reaccionar a los objetos alrededor del vehículo permite ofrecer una experiencia de conducción cómoda y segura. En este vídeo de DRIVE Labs, explicamos por qué es esencial tener una tubería de fusión de sensores que combine señales de entrada de cámara y radar para obtener una percepción envolvente robusta.
En escenarios de conducción muy complejos, es útil que el sistema de percepción del vehículo autónomo proporcione una comprensión más detallada de su entorno. Con nuestro enfoque DNN de segmentación panóptica, podemos obtener resultados detallados que segmentan el contenido de la imagen con precisión a nivel de píxel.
Las luces de haz alto pueden aumentar significativamente el rango de visibilidad nocturna de los faros delanteros estándar. Sin embargo, pueden deslumbrar peligrosamente a otros conductores. Hemos entrenado una red neuronal profunda (DNN) basada en cámara, llamada AutoHighBeamNet, para generar automáticamente salidas de control para el sistema de luz de haz alto del vehículo, lo que aumenta la visibilidad y la seguridad de la conducción nocturna.
El seguimiento de características calcula las correspondencias y los cambios a nivel de píxel entre fotogramas de vídeo adyacentes, de modo que proporciona información temporal y geométrica crucial para la estimación de movimiento/velocidad de objetos, autocalibración de la cámara y odometría visual.
La red neuronal profunda de ParkNet puede detectar un aparcamiento libre de acuerdo con una serie de condiciones. Descubre cómo se desenvuelve tanto en espacios interiores como exteriores, separados por marcas de carril simples, dobles o descoloridas, además de cómo diferencia entre plazas ocupadas, libres y parcialmente ocultas.
En este episodio especial de DRIVE Labs se muestra cómo el software NVIDIA DRIVE AV combina los aspectos más básicos de la percepción, la localización, la planificación y el control para conducir de forma autónoma en la vía pública alrededor de nuestra sede en Santa Clara (California).
El software NVIDIA DRIVE AV utiliza una combinación de DNN para clasificar las señales de tráfico y los semáforos. Mira cómo nuestra DNN LightNet clasifica la forma del semáforo (por ejemplo, sólido frente a flecha) y su estado (es decir, el color), a la vez que identifica el tipo de señal de tráfico.
Nuestro software de prevención de colisiones Safety Force Field (SFF) actúa como un supervisor independiente de las acciones del sistema principal de planificación y control del vehículo. SFF comprueba los controles elegidos por el sistema principal y, si no los considera seguros, veta y corrige la decisión de este.
El procesamiento de redes neuronales profundas (DNN) ha surgido como una importante técnica basada en IA para la detección de carriles. Nuestra DNN de LaneNet aumenta el rango de detección de carriles, la recuperación del borde del carril y la robustez de detección de carriles con precisión a nivel de píxel.
El cálculo de la distancia de los objetos mediante los datos de imágenes de una única cámara puede conllevar desafíos en terrenos montañosos. Con la ayuda de las redes neuronales profundas, los vehículos autónomos pueden predecir distancias en 3D a partir de imágenes en 2D.
Descubre cómo usamos nuestro sistema de seis cámaras para ver 360 grados alrededor del coche, así como para realizar un seguimiento de los objetos a medida que se mueven en el entorno que rodea al vehículo.
Los vehículos autónomos deben usar métodos computacionales y datos de sensores, como una secuencia de imágenes, para percibir el movimiento de un objeto a lo largo de un período de tiempo.
La red neuronal profunda de ClearSightNet cuenta con entrenamiento para evaluar la capacidad de las cámaras de ver claramente y determinar causas de oclusiones, bloqueos y reducciones de visibilidad.
Obtén información sobre cómo la red neuronal profunda de WaitNet puede detectar intersecciones sin la ayuda de un mapa.
Este trío de redes neuronales profundas crea y evalúa la confianza para la predicción de la ruta principal y los carriles, así como cambios, divisiones o empalmes de carriles.
Actualizaciones breves de nuestra flota de AV, en las que se destacan nuevos avances.
Consulta los avances más recientes en la percepción de los vehículos autónomos de NVIDIA DRIVE. En esta episodio de Dispatch, utilizamos sensores ultrasónicos para detectar la altura de los objetos circundantes en áreas de baja velocidad, como los aparcamientos. La red neuronal profunda RadarNet detecta el espacio libre de circulación, mientras que la red neuronal profunda Stereo Depth estima la geometría del entorno.
Drive Dispatch vuelve para la segunda temporada. En este episodio, mostramos avances en agrupaciones integrales de radares basadas en redes neuronales profundas, Real2Sim, supervisión de conductores y ocupantes, entre otros elementos.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en la predicción del movimiento del tráfico, la detección de marcas viales, la visualización de datos sintéticos en 3D y mucho más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en la percepción de las rutas disponibles, la localización de cámaras y radares, la detección de espacios de aparcamiento y mucho más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en datos sintéticos para mejorar el entrenamiento DNN, percepción solo por radar para predecir el movimiento futuro, creación de MapStream para mapas HD colaborativos y mucho más.
Descubre los avances más recientes en DepthNet, detección de marcas viales, estimación de egomoción con varios radares, seguimiento de características entre cámaras y mucho más.
Explora el progreso en la detección de plazas de estacionamiento, la ubicación 3D en la detección de puntos de referencia, nuestra primera unidad autónoma que usa un mapa MyRoute generado automáticamente y un plano de carretera, así como la estimación de la suspensión.
Echa un vistazo a los avances en la clasificación y prevención de scooters, detección de semáforos, estabilidad cuboide 2D, espacio libre 3D de anotaciones de cámara, tubería de percepción Lidar y percepción de faros/luz trasera/alumbrado público.
Obtén los vídeos más recientes de DRIVE directamente en tu bandeja de entrada con el boletín de automoción de NVIDIA.