Selecciona la pestaña siguiente para ver el proceso desde dentro.
El equipo de NVIDIA DRIVE está constantemente innovando y desarrollando soluciones de conducción autónoma integrales que transforman el sector.
Selecciona la pestaña siguiente para ver el proceso desde dentro.
Vídeos breves que ponen de relieve los elementos fundamentales de nuestra tecnología de vehículos autónomos.
En este episodio de DRIVE Labs, hablamos sobre tres avances clave de NVIDIA que utilizan IA generativa, como el texto a simulación para crear entornos realistas, generar comportamientos de conducción naturales y editar los escenarios resultantes para permitir una evaluación y entrenamiento rigurosos de los vehículos autónomos.
El modelo de conducción de extremo a extremo de NVIDIA combina detección, seguimiento, predicción y planificación en una sola red con un diseño minimalista. La entrada de planificación proviene directamente de un mapa de características de vista aérea generado a partir de datos de sensores.
Adaptar el comportamiento de conducción a los nuevos entornos, costumbres y leyes es un desafío de largo recorrido en la conducción autónoma. LLaDA (Large Language Driving Assistant) es una red LLM que facilita la navegación por lugares desconocidos al proporcionar directrices en tiempo real sobre las normas de tráfico regionales en diferentes idiomas, tanto para conductores humanos como para vehículos autónomos.
La simulación de vehículos autónomos solo es efectiva si es capaz de reproducir con precisión el mundo real. La necesidad de fidelidad aumenta, y se vuelve más difícil de lograr a medida que los escenarios se vuelven más dinámicos y complejos. En este episodio descubrirás EmerNeRF, un método para reconstruir escenarios de conducción dinámica.
A medida que los fabricantes de automóviles integran la autonomía en sus flotas, pueden surgir desafíos al extender la tecnología de vehículos autónomos a diferentes tipos de vehículos. En esta edición de NVIDIA DRIVE Labs, nos sumergimos en la robustez de los puntos de vista y exploramos cómo los avances recientes proporcionan una solución utilizando síntesis de vistas dinámicas.
HALP (Hardware-Aware Latency Pruning), es un nuevo método diseñado para adaptar redes neuronales convolucionales (CNN) y arquitecturas basadas en transformadores para rendimiento en tiempo real. En este vídeo, descubre cómo HALP optimiza modelos preentrenados para maximizar el uso de la computación.
El concepto de «predicción de ocupación 3D» es crítico para el desarrollo de sistemas de conducción autónoma seguros y robustos. En este episodio vamos más allá del enfoque tradicional a vista de pájaro y mostramos la tecnología de percepción 3D de NVIDIA, que ganó el desafío de predicción de ocupación 3D en CVPR 2023.
Early Grid Fusion (EGF) es una nueva técnica que mejora la prevención de obstáculos de campo cercano en la asistencia al aparcamiento automático. EGF combina cámaras de aprendizaje automático y sensores ultrasónicos para detectar y percibir con precisión los obstáculos circundantes, proporcionando una vista envolvente de 360 grados.
La percepción ambiental precisa es crítica para la seguridad de los vehículos autónomos (AV), especialmente cuando se gestionan condiciones invisibles. En este episodio de DRIVE Labs, hablamos de un modelo transformador de visión, denominado SegFormer, que genera una segmentación semántica robusta mientras mantiene una alta eficiencia. Este vídeo presenta el mecanismo detrás de SegFormer que le brinda su robustez y eficiencia.
Actualizaciones breves de nuestra flota de AV, en las que se destacan nuevos avances.
En la última edición de NVIDIA DRIVE Dispatch, descubre la generación de reconstrucción 4D a partir de una sola unidad, así como PredictionNet, una red neuronal profunda (DNN) que se puede utilizar para predecir el comportamiento futuro y las trayectorias de los agentes de carreteras en aplicaciones de vehículos autónomos. También analizamos las pruebas del programa de análisis de nuevos vehículos (NCAP) con NVIDIA DRIVE Sim.
Consulta los avances más recientes en la percepción de los vehículos autónomos de NVIDIA DRIVE. En este episodio de Dispatch utilizamos sensores ultrasónicos para detectar la altura de los objetos circundantes en áreas de baja velocidad, como los aparcamientos. La red neuronal profunda RadarNet detecta el espacio libre de circulación, mientras que la red neuronal profunda Stereo Depth estima la geometría del entorno.
DRIVE Dispatch regresa en la temporada 2. En este episodio, mostramos avances en la agrupación de clústeres basados en DNN de radar de extremo a extremo, Real2Sim, supervisión de conductores y ocupantes, y mucho más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en la predicción del movimiento del tráfico, la detección de marcas viales, la visualización de datos sintéticos en 3D y mucho más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en la percepción de las rutas disponibles, la localización de cámaras y radares, la detección de espacios de aparcamiento y mucho más.
En este episodio de NVIDIA DRIVE Dispatch, mostramos avances en datos sintéticos para mejorar el entrenamiento DNN, percepción solo por radar para predecir el movimiento futuro, creación de MapStream para mapas HD colaborativos y mucho más.
Descubre los avances más recientes en DepthNet, detección de marcas viales, estimación de egomoción multirradar, seguimiento de características entre cámaras y mucho más.
Explora el progreso en la detección de plazas de estacionamiento, la ubicación 3D en la detección de puntos de referencia, nuestra primera unidad autónoma que usa un mapa MyRoute generado automáticamente y un plano de carretera, así como la estimación de la suspensión.
Echa un vistazo a los avances en la clasificación y prevención de scooters, detección de semáforos, estabilidad cuboide 2D, espacio libre 3D de anotaciones de cámara, tubería de percepción Lidar y percepción de faros/luz trasera/alumbrado público.
Obtén los vídeos más recientes de DRIVE, directamente en tu bandeja de entrada, con el boletín de automoción de NVIDIA.