Los investigadores han publicado en GitHub un proyecto de código abierto llamado AgentTuning. Este proyecto presenta un nuevo método para ajustar modelos de lenguaje mediante el entrenamiento y ajuste del modelo a través de trayectorias de interacción en múltiples tareas de agentes inteligentes. Esto permite una mejor adaptación a diferentes tareas y escenarios.
Este método mejora el rendimiento y la capacidad de generalización de los modelos de lenguaje, al mismo tiempo que reduce la necesidad de ajustes manuales. AgentTuning ya ha sido probado con éxito en varias tareas de procesamiento del lenguaje natural, incluyendo la generación de diálogos, sistemas de preguntas y respuestas, y la generación de resúmenes.
El proyecto también es aplicable a otros tipos de modelos y tiene un enorme potencial.