Le MIT a présenté cette semaine un nouveau modèle d'entraînement pour robots, conçu pour résoudre le problème de l'échec potentiel de l'apprentissage par imitation face à de petits défis. Les chercheurs soulignent que l'apprentissage par imitation peut échouer dans des situations telles que des variations d'éclairage, des environnements différents ou de nouveaux obstacles, car les robots ne disposent tout simplement pas de suffisamment de données pour s'adapter.
L'équipe a cherché à s'inspirer de modèles comme GPT-4 pour trouver une méthode de données puissante afin de résoudre ce problème. Ils ont introduit une nouvelle architecture appelée Transformateur de Pré-entraînement Hétérogène (HPT), qui rassemble des informations provenant de différents capteurs et de différents environnements. Un transformateur est ensuite utilisé pour agréger ces données dans le modèle d'entraînement. Plus le transformateur est grand, meilleurs sont les résultats.
Les utilisateurs peuvent saisir la conception, la configuration du robot et les tâches qu'ils souhaitent qu'il effectue, puis entraîner le robot à l'aide du nouveau modèle. Les chercheurs affirment que cette approche pourrait permettre des avancées significatives dans les stratégies robotiques, à l'image des grands modèles de langage.
Cette recherche a été partiellement financée par le Toyota Research Institute. L'année dernière, le Toyota Research Institute a présenté pour la première fois à TechCrunch Disrupt une méthode d'entraînement de robots en une nuit. Récemment, la société a conclu un partenariat historique qui associera ses recherches en apprentissage robotique au matériel de Boston Dynamics.
David Held, professeur adjoint à l'université Carnegie Mellon, a déclaré : « Notre rêve est d'avoir un cerveau robotique universel que vous pouvez télécharger et utiliser sans aucune formation. Bien que nous en soyons encore aux premiers stades, nous continuons à travailler dans l'espoir que la mise à l'échelle permettra des avancées significatives dans les stratégies robotiques, à l'image des grands modèles de langage. »