Selecione a guia abaixo para ver o processo por dentro.
A equipe de Software do NVIDIA DRIVE® está sempre inovando, desenvolvendo redes neurais profundas redundantes e diversas para sistemas autônomos seguros e eficientes que estão transformando o setor.
Selecione a guia abaixo para ver o processo por dentro.
Vídeos curtos que explicam algoritmos específicos de condução autônoma.
Neste episódio do DRIVE Labs, discutimos três avanços importantes da NVIDIA que usam IA generativa, como texto para simulação, para criar ambientes realistas, gerar comportamentos de direção naturais e editar os cenários resultantes para permitir avaliação e treinamento rigorosos de AV.
O modelo de direção de ponta a ponta da NVIDIA combina detecção, rastreamento, previsão e planejamento em uma única rede com um design minimalista. A entrada do planejamento vem diretamente de um mapa de recursos de visão panorâmica gerado a partir de dados do sensor.
Adaptar el comportamiento de conducción a nuevos entornos, costumbres y leyes es un desafío de larga data en la conducción autónoma. LLaDA (Large Language Driving Assistant) es una red LLM que facilita la navegación en lugares desconocidos al proporcionar orientación en tiempo real sobre las normas de tráfico regionales en diferentes idiomas, tanto para conductores humanos como para vehículos autónomos.
A simulação de veículos autônomos só é eficaz se puder reproduzir com precisão o mundo real. A necessidade de fidelidade aumenta e torna-se mais difícil de alcançar à medida que os cenários se tornam mais dinâmicos e complexos. Neste episódio, conheça o EmerNeRF, um método para reconstruir cenários de direção dinâmicos.
Nesta edição do NVIDIA DRIVE Labs, nos aprofundamos na robustez do ponto de vista e exploramos como os avanços recentes na Síntese de Visualização Dinâmica fornecem uma solução para problemas de percepção.
HALP (Hardware-Aware Latency Pruning), is a new method designed to adapt convolutional neural networks (CNNs) and transformer-based architectures for real-time performance. In this video, learn how HALP optimizes pre-trained models to maximize compute utilization.
The concept of "3D occupancy prediction" is critical to the development of safe and robust self-driving systems. In this episode, we go beyond the traditional bird's eye view approach and showcase NVIDIA's 3D perception technology, which won the 3D Occupancy Prediction Challenge at CVPR 2023.
Precise environmental perception is critical for autonomous vehicle (AV) safety, especially when handling unseen conditions. In this episode of DRIVE Labs, we discuss a Vision Transformer model called SegFormer, which generates robust semantic segmentation while maintaining high efficiency. This video introduces the mechanism behind SegFormer that enables its robustness and efficiency.
Testar veículos autônomos (AVs) em cenários potenciais de quase acidentes é crítico para avaliar a segurança, mas é difícil e inseguro de fazer no mundo real. Neste episódio de DRIVE Labs, discutimos um novo método dos pesquisadores da NVIDIA chamado STRIVE (Stress-Test Drive), que gera automaticamente cenários de acidentes potenciais em simulação para AVs.
Atualizações rápidas da frota de automóveis autônomos, destacando as inovações mais recentes.
Na edição mais recente do NVIDIA DRIVE Dispatch, aprenda sobre como gerar reconstrução 4D a partir de uma única unidade, bem como sobre a PredictionNet, uma rede neural profunda (DNN) que pode ser usada para prever o comportamento futuro e as trajetórias de agentes rodoviários em aplicações de veículos autônomos. Também daremos uma olhada nos testes do Programa de Avaliação de Novos Carros (NCAP) com NVIDIA DRIVE Sim.
Veja os últimos avanços na percepção de veículos autônomos da NVIDIA DRIVE. Neste despacho, usamos sensores ultra-sônicos para detectar a altura dos objetos ao redor em áreas de baixa velocidade, como estacionamentos. O RadarNet DNN detecta o espaço livre dirigíveis, enquanto o DNN de Profundidade Estéreo estima a geometria do ambiente.
O DRIVE Dispatch retorna para a 2ª Temporada. Neste episódio, mostramos avanços no agrupamento baseado em DNN de radar de ponta a ponta, Real2Sim, monitoramento de motoristas e ocupantes e muito mais.
Neste episódio do NVIDIA DRIVE Dispatch, mostramos avanços na previsão do movimento do tráfego, detecção de marcação de estradas, visualização de dados sintéticos 3D e muito mais.
Neste episódio do NVIDIA DRIVE Dispatch, mostramos avanços em dados sintéticos para treinamento DNN aprimorado, percepção apenas de radar para prever movimentos futuros, criação de MapStream para mapas HD com crowdsourcing e muito mais.
Neste episódio de NVIDIA DRIVE Dispatch, mostramos avanços em dados sintéticos para treinamento DNN aprimorado, percepção apenas de radar para prever movimentos futuros, criação de MapStream para mapas HD com crowdsourcing e muito mais.
Veja os avanços mais atuais na DepthNet, detecção de marcações da estrada, estimativa de movimentação da câmera multirradar, monitoramento de recursos de várias câmeras e muito mais.
Confira os avanços na detecção de vagas de estacionamento, localização 3D na detecção de pontos de referência e nossa primeira viagem com condução autônoma usando um mapa do MyRoute gerado automaticamente e um plano da estrada, além da estimativa da suspensão.
Confira os avanços na classificação e desvio de scooters, detecção de semáforos, estabilidade cuboide 2D, espaço livre 3D das anotações da câmera, pipeline de percepção lidar e percepção de faróis/luzes traseiras/postes de luz.
Receba os vídeos mais atuais das séries DRIVE por e-mail com a newsletter NVIDIA Automotive.