O Laboratório de Inteligência Artificial de Xangai lançou recentemente o XTuner, um kit de ferramentas de baixo custo para treinamento de modelos grandes. Compatível com diversos hardwares, permite que desenvolvedores treinem "modelos grandes exclusivos" para cenários específicos usando apenas 8GB de memória de vídeo de consumo, reduzindo significativamente o custo de treinamento. O XTuner é compatível com vários modelos de código aberto, como o Shusheng·Puyu e o Llama, e pode executar tarefas como pré-treinamento incremental e ajuste fino de instruções. Ao mesmo tempo, ele equilibra facilidade de uso e configurabilidade, com fluxos de trabalho padronizados para pré-treinamento incremental, ajuste fino de instruções de diálogo de uma e várias rodadas e ajuste fino de instruções de ferramentas, permitindo que os desenvolvedores se concentrem nos dados. O XTuner reforça ainda mais o papel prático do sistema de código aberto completo do Laboratório de IA de Xangai para pesquisa e aplicação de modelos grandes, impulsionando o progresso tecnológico em conjunto com outros setores.