El Instituto Tecnológico de Massachusetts (MIT) presentó esta semana un nuevo modelo de entrenamiento para robots que abandona los métodos tradicionales centrados en conjuntos de datos específicos y adopta un enfoque similar al de los grandes modelos de lenguaje (LLM), utilizando una gran cantidad de información.

Los investigadores señalan que el aprendizaje por imitación —donde un agente aprende imitando a un individuo que realiza una tarea— puede fallar ante pequeños desafíos. Estos desafíos pueden incluir diferentes condiciones de iluminación, configuraciones ambientales distintas u obstáculos nuevos. En estas situaciones, el robot no dispone de datos suficientes para adaptarse a estos cambios.

Robot haciendo un examen  Robot en la prueba universitaria

Nota de la imagen: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

El equipo se inspiró en modelos como GPT-4, adoptando un enfoque de resolución de problemas impulsado por datos a gran escala.

“En el campo del lenguaje, los datos son oraciones”, afirma Lirui Wang, autor principal del artículo. “En el campo de la robótica, dada la diversidad de los datos, si quieres preentrenar de manera similar, necesitas una arquitectura diferente”.

El equipo introdujo una nueva arquitectura, llamada Transformador de Preentrenamiento Heterogéneo (HPT), que integra información de diferentes sensores y entornos. Luego, utiliza un transformador para integrar los datos en el modelo de entrenamiento. Cuanto más grande sea el transformador, mejores serán los resultados.

El usuario luego ingresa el diseño y la configuración del robot, así como la tarea que desea que realice.

“Nuestro sueño es tener un cerebro robótico universal que puedas descargar y usar en tu robot sin necesidad de entrenamiento”, comenta David Held, profesor asociado de la Universidad Carnegie Mellon, sobre esta investigación. “Aunque recién estamos comenzando, seguiremos trabajando, con la esperanza de que el aumento de escala, al igual que con los grandes modelos de lenguaje, genere un avance en las estrategias robóticas”.

Esta investigación fue financiada en parte por el Toyota Research Institute (TRI). El año pasado, en TechCrunch Disrupt, TRI presentó un método para entrenar robots durante la noche. Recientemente, logró una asociación trascendental, combinando su investigación en aprendizaje robótico con el hardware de Boston Dynamics.