El Laboratorio de Inteligencia Artificial de Shanghai ha lanzado recientemente XTuner, un kit de herramientas de bajo costo para el entrenamiento de modelos grandes. Compatible con una variedad de hardware, los desarrolladores pueden entrenar "modelos grandes exclusivos" para escenarios específicos con tan solo 8 GB de memoria de video de consumo, reduciendo significativamente el costo de entrenamiento. XTuner es compatible con varios modelos de código abierto como Shusheng·Puyu y Llama, y puede realizar tareas como el entrenamiento previo incremental y el ajuste fino de instrucciones. A su vez, equilibra la facilidad de uso y la capacidad de configuración, incorporando flujos de trabajo estandarizados para el entrenamiento previo incremental, el ajuste fino de instrucciones de diálogo de una y varias rondas, y el ajuste fino de instrucciones de tipo utilitario, permitiendo a los desarrolladores centrarse en los datos. XTuner refuerza una vez más el carácter práctico del sistema de código abierto integral para el desarrollo y la aplicación de modelos grandes del Laboratorio de IA de Shanghai, impulsando conjuntamente el progreso tecnológico.
El Laboratorio de IA de Shanghai lanza XTuner, un kit de herramientas para el entrenamiento de modelos grandes, que reduce significativamente los costos de entrenamiento
