Le laboratoire d'intelligence artificielle de Shanghai a récemment publié XTuner, une boîte à outils d'entraînement de modèles de grande taille à faible coût. Compatible avec plusieurs types de matériel, elle permet aux développeurs d'entraîner des « modèles de grande taille spécifiques » adaptés à des scénarios d'utilisation précis, même avec seulement 8 Go de mémoire vidéo grand public, réduisant ainsi considérablement le coût d'entraînement. XTuner est compatible avec plusieurs modèles open source tels que Shusheng·Puyu et Llama, et peut exécuter des tâches telles que le pré-entraînement incrémental et l'ajustement fin des instructions. Simultanément, il allie facilité d'utilisation et configurabilité, intégrant des processus standardisés pour le pré-entraînement incrémental, l'ajustement fin des instructions de dialogue à un et plusieurs tours, et l'ajustement fin des instructions pour les outils, permettant aux développeurs de se concentrer uniquement sur les données. XTuner renforce une fois de plus le rôle d'outil pratique du système open source complet du laboratoire IA de Shanghai dédié à la recherche et à l'application des grands modèles, contribuant ainsi au progrès technologique avec toutes les parties prenantes.