Ein Forschungsteam von Nvidia hat kürzlich einen bedeutenden Durchbruch im Bereich der Roboterkontrolle erzielt. Ihr entwickeltes neuronales Netzwerk namens HOVER steuert humanoide Roboter mit extrem wenigen Parametern effizient und übertrifft sogar speziell entwickelte Steuerungssysteme.

Das HOVER-System benötigt lediglich 1,5 Millionen Parameter, um komplexe Roboterbewegungen zu steuern. Zum Vergleich: Übliche große Sprachmodelle benötigen oft Billionen von Parametern. Diese erstaunliche Parameffizienz unterstreicht die Genialität des Systemdesigns.

image.png

HOVER wurde in Nvidias Isaac-Simulationsumgebung trainiert, die Roboterbewegungen um das 10.000-fache beschleunigt. Nvidia-Forscher Jim Fan erklärte, dass dies bedeutet, dass ein Jahr Training in der virtuellen Welt mit einer einzigen GPU in nur 50 Minuten abgeschlossen werden kann.

Ein besonderes Highlight des Systems ist seine außergewöhnliche Anpassungsfähigkeit. Ohne zusätzliche Optimierung lässt es sich direkt aus der Simulationsumgebung auf reale Roboter übertragen und unterstützt verschiedene Eingabemethoden: Es kann Kopf- und Handbewegungen über XR-Geräte wie die Apple Vision Pro verfolgen, Ganzkörperpositionsdaten über Motion Capture oder RGB-Kameras erfassen, Gelenkwinkel über Exoskelette messen und sogar mit einem Standard-Gamepad gesteuert werden.

Noch überraschender ist, dass HOVER bei jeder Steuerungsmethode besser abschneidet als Systeme, die speziell für eine einzelne Eingabemethode entwickelt wurden. Der Hauptautor Tairan He vermutet, dass dies auf ein tiefes Verständnis des Systems für physikalische Konzepte wie Gleichgewicht und präzise Gliedmaßenkontrolle zurückzuführen ist, wodurch ein Wissenstransfer zwischen verschiedenen Steuerungsmethoden ermöglicht wird.

Das System basiert auf den Open-Source-Projekten H2O & OmniH2O und kann jeden humanoiden Roboter steuern, der im Isaac-Simulator läuft. Nvidia hat Beispiele und Code auf GitHub veröffentlicht und damit neue Möglichkeiten für die Robotikforschung und -entwicklung geschaffen.