IBM acaba de lanzar su nuevo modelo de lenguaje grande de código abierto, Granite3.1, con el objetivo de liderar el mercado de IA empresarial. Esta serie de modelos cuenta con una longitud de contexto extendida de 128K, modelos de incrustación, una función de detección de alucinaciones integrada y una mejora significativa del rendimiento.

image.png

IBM afirma que el modelo Granite8B Instruct ofrece el mejor rendimiento entre sus competidores de código abierto del mismo tamaño, incluyendo Llama3.1 de Meta, Qwen2.5 y Gemma2 de Google.

image.png

El lanzamiento del modelo Granite3.1 se produce tras una rápida iteración de la serie Granite por parte de IBM, que ya lanzó Granite3.0 en octubre. IBM reveló que sus ingresos relacionados con la IA generativa han alcanzado los 2.000 millones de dólares. La idea central de la nueva versión es integrar más funciones en un modelo más pequeño, para que los usuarios empresariales puedan ejecutarlo con mayor facilidad y rentabilidad.

David Cox, vicepresidente de IBM Research, declaró que los modelos Granite se utilizan ampliamente en productos internos de IBM, servicios de consultoría y atención al cliente, y también se lanzan como código abierto, por lo que deben alcanzar un alto nivel en todos los aspectos. La evaluación del rendimiento del modelo no solo depende de la velocidad, sino también de la eficiencia, ayudando a los usuarios a ahorrar tiempo al obtener resultados.

En cuanto a la longitud del contexto, la mejora de Granite3.1 es especialmente notable, pasando de los 4K iniciales a 128K, lo cual es crucial para los usuarios empresariales de IA, especialmente en la generación mejorada por recuperación (RAG) y la IA de agentes inteligentes. La longitud de contexto extendida permite al modelo procesar documentos, registros y conversaciones más largos, lo que le permite comprender y responder mejor a consultas complejas.

IBM también ha lanzado una serie de modelos de incrustación para acelerar el proceso de conversión de datos a vectores. El modelo Granite-Embedding-30M-English, por ejemplo, tiene un tiempo de consulta de 0,16 segundos, superando a los productos de la competencia. Para lograr la mejora del rendimiento de Granite3.1, IBM ha innovado en el proceso de entrenamiento multietapa y en el uso de datos de entrenamiento de alta calidad.

image.png

En cuanto a la detección de alucinaciones, el modelo Granite3.1 integra la protección contra alucinaciones en el propio modelo, pudiendo autodetectar y reducir las salidas erróneas. Esta función de detección integrada optimiza la eficiencia general y reduce el número de llamadas de inferencia.

Actualmente, el modelo Granite3.1 está disponible gratuitamente para los usuarios empresariales y se ofrece a través del servicio de IA empresarial Watsonx de IBM. En el futuro, IBM planea mantener un ritmo de actualizaciones rápido, y Granite3.2 presentará funciones multimodales a principios de 2025.

Blog oficial: https://www.ibm.com/new/announcements/ibm-granite-3-1-powerful-performance-long-context-and-more

Puntos clave:

🌟 IBM lanza el modelo Granite3.1, con el objetivo de liderar el mercado de modelos de lenguaje grande de código abierto.

💡 El nuevo modelo admite una longitud de contexto de 128K, lo que mejora significativamente su capacidad y eficiencia de procesamiento.

🚀 La función de detección de alucinaciones está integrada en el modelo, optimizando el rendimiento y la precisión general.