Das Massachusetts Institute of Technology (MIT) präsentierte diese Woche ein neues Modell zum Trainieren von Robotern, das darauf abzielt, das Problem der Imitationslernen zu lösen, welches bei kleinen Herausforderungen versagen kann. Die Forscher weisen darauf hin, dass Imitationslernen bei veränderten Lichtverhältnissen, unterschiedlichen Umgebungen oder neuen Hindernissen scheitern kann, da die Roboter einfach nicht genügend Daten zur Anpassung haben.
Das Team suchte nach einer leistungsstarken Datenmethode, ähnlich wie bei Modellen wie GPT-4, um dieses Problem zu lösen. Sie führten eine neue Architektur namens Heterogeneous Pre-trained Transformer (HPT) ein, die Informationen von verschiedenen Sensoren und unterschiedlichen Umgebungen zusammenführt. Ein Transformer aggregiert dann die Daten für das Trainingsmodell. Je größer der Transformer, desto besser das Ergebnis.
Benutzer können Roboterdesign, -konfiguration und die gewünschte Aufgabe eingeben, und der Roboter wird dann mit dem neuen Modell trainiert. Die Forscher sagen, dass dieser Ansatz zu Durchbrüchen in der Roboterstrategie führen kann, ähnlich wie bei großen Sprachmodellen.
Die Forschung wurde teilweise vom Toyota Research Institute finanziert. Im vergangenen Jahr präsentierte das Toyota Research Institute auf der TechCrunch Disrupt erstmals eine Methode zum Trainieren von Robotern über Nacht. Kürzlich ging das Unternehmen eine wegweisende Partnerschaft ein, um seine Forschung im Bereich des Roboterlernens mit der Hardware von Boston Dynamics zu kombinieren.
David Held, außerordentlicher Professor an der Carnegie Mellon University, sagte: „Unser Traum ist es, ein universelles Robotergehirn zu haben, das man herunterladen und ohne weiteres Training verwenden kann. Obwohl wir uns noch in einem frühen Stadium befinden, werden wir weiterhin daran arbeiten, in der Hoffnung, dass Skalierung zu Durchbrüchen in der Roboterstrategie führen wird, ähnlich wie bei großen Sprachmodellen.“