Bestärkendes Lernen

Roboterlerntechnik zur Entwicklung anpassungsfähiger und effizienter Roboteranwendungen.

Nissan

Image Credit: Agility, Apptronik, Fourier Intelligence, Unitree

Workloads

Robotik

Branchen

Alle Branchen

Geschäftsziel

Innovation

Produkte

NVIDIA Omniverse
NVIDIA Omniverse Enterprise
NVIDIA AI Enterprise

Ermächtigen Sie physische Roboter mit komplexen Fähigkeiten mithilfe von bestärkendem Lernen

Da Roboter komplexere Aufgaben übernehmen, reichen die traditionellen Programmiermethoden nicht mehr aus. Bestärkendes Lernen (Reinforcement Learning, RL) ist eine Technik des maschinellen Lernens, die entwickelt wurde, um diese Herausforderung durch die Programmierung des Roboterverhaltens zu bewältigen. Mit RL in der Simulation können Roboter in jeder virtuellen Umgebung durch Versuch und Irrtum trainieren und so ihre Fähigkeiten in den Bereichen Steuerung, Pfadplanung, Manipulation und mehr verbessern.

Das RL-Modell wird für gewünschte Aktionen belohnt, daher wird es ständig angepasst und verbessert. Dies hilft Robotern, anspruchsvolle grob- und feinmotorische Fähigkeiten zu entwickeln, die für reale Automatisierungsaufgaben wie das Greifen neuer Objekte, das vierbeinige Gehen und das Erlernen komplexer Manipulationsfähigkeiten erforderlich sind.

Durch die kontinuierliche Verfeinerung der Kontrollrichtlinien basierend auf Belohnungen und der Analyse ihrer Aktionen kann RL Robotern auch dabei helfen, sich an neue Situationen und unvorhergesehene Herausforderungen anzupassen, wodurch sie anpassungsfähiger für Aufgaben in der realen Welt werden.

GPU-beschleunigte RL-Training für Robotik

Traditionelles CPU-basiertes Training für Roboter-RL kann teuer sein, da oft Tausende von Rechenkernen für komplexe Aufgaben benötigt werden, was die Kosten für Roboteranwendungen in die Höhe treibt. NVIDIA-GPUs lösen diese Herausforderung mit ihren parallelen Verarbeitungsfunktionen und beschleunigen die Verarbeitung sensorischer Daten in wahrnehmungsbasierten Umgebungen des bestärkenden Lernens erheblich. Dadurch werden die Fähigkeiten von Robotern, zu lernen, sich anzupassen und komplexe Aufgaben in dynamischen Umgebungen auszuführen, erheblich verbessert.

Die Rechenplattformen von NVIDIA – einschließlich Tools wie Isaac Lab – nutzen die GPU-Leistung sowohl für Physiksimulationen als auch für Belohnungsermittlungen innerhalb der RL-Pipeline. Dies beseitigt Engpässe und rationalisiert den Prozess, wodurch ein reibungsloserer Übergang von der Simulation zur realen Bereitstellung ermöglicht wird.

Isaac Lab für bestärkendes Lernen

NVIDIA Isaac™ Lab ist ein modulares Framework, das auf NVIDIA Isaac Sim™ aufbaut und Robotertrainings-Workflows wie bestärkendes Lernen und Lernen durch Nachahmung vereinfacht. Entwickler können die neuesten Omniverse™-Funktionen für das Training komplexer Richtlinien mit aktivierter Wahrnehmung nutzen.

  • Die Szene zusammenstellen: Der erste Schritt besteht darin, eine Szene in Isaac Sim oder Isaac Lab zu erstellen und Roboter-Assets aus URDF oder MJCF zu importieren. Wenden Sie physikalische Schemata für die Simulation an und integrieren Sie Sensoren für das wahrnehmungsbasierte Training von Richtlinien.
  • RL-Aufgaben definieren: Nach der Konfiguration der Szene und des Roboters werden im nächsten Schritt die zu erfüllende Aufgabe und die Belohnungsfunktion definiert. Die Umgebung (z. B. Manager-Based oder Direct-Workflow) stellt den aktuellen Zustand oder die Beobachtungen des Agenten zur Verfügung und führt die bereitgestellten Aktionen aus. Die Umgebung reagiert dann auf die Agenten, indem sie die nächsten Zustände bereitstellt.
  • Trainieren: Der letzte Schritt besteht darin, die Hyperparameter für das Training und die Richtlinienarchitektur festzulegen. Isaac Lab bietet vier RL-Bibliotheken zum Training der Modelle mit GPUs: StableBaselines3, RSL-RL, RL-Games und SKRL.
  • Skalieren: Um das Training über Multi-GPU- und Multi-Node-Systeme hinweg zu skalieren, können Entwickler OSMO verwenden, um Trainingsaufgaben über Multi-Node-Systeme auf verteilter Infrastruktur zu orchestrieren.

Das Projekt GR00T bietet Entwicklern einen neuen Weg zur gezielten Entwicklung humanoider Roboter. GR00T ist ein universell einsetzbares Basismodell, das helfen kann, Sprache zu verstehen, menschliche Bewegungen nachzuahmen und durch multimodales Lernen schnell Fähigkeiten zu erwerben. Um mehr zu erfahren und Zugriff auf GR00T zu erhalten, bewerben Sie sich für das NVIDIA Humanoid Entwicklerprogramm.

Partnernetzwerk

Sehen Sie, wie unser Ökosystem eigene Robotik-Anwendungen und -Services auf Basis von bestärkendem Lernen und NVIDIA-Technologien entwickelt.

Jetzt starten

Bestärkendes Lernen für die Robotik wird von den Forschern und Entwicklern von heute weitgehend eingesetzt. Erfahren Sie noch heute mehr über NVIDIA Isaac Lab für das Lernen mit Robotern.

News