La Universidad de Waterloo y otras instituciones han lanzado conjuntamente MAmmoTH, un gran modelo lingüístico especialmente diseñado para problemas matemáticos. MAmmoTH supera a los modelos de código abierto existentes en conjuntos de datos de razonamiento matemático, con una mejora de precisión promedio del 12% al 29%. En concreto, el modelo MAmmoTH-7B alcanza una precisión del 35% en conjuntos de datos de nivel competitivo, superando al mejor modelo de código abierto de 7B. El modelo MAmmoTH-34B alcanza una precisión del 46% en el conjunto de datos MATH, incluso superando los resultados de GPT-4. La ventaja de rendimiento de MAmmoTH lo convierte en el nuevo líder en el campo del razonamiento matemático.
MAmmoTH de código abierto: 34B parámetros superando a GPT-4, precisión promedio mejorada en un 29% para modelos grandes de lenguaje matemático general

新智元
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.