Hugging Face acaba de lanzar SmolLM2, una nueva serie de modelos de lenguaje compactos que ofrecen un rendimiento impresionante con una fracción de los recursos computacionales necesarios para los modelos más grandes. Estos nuevos modelos, publicados bajo la licencia Apache 2.0, vienen en tres tamaños —135M, 360M y 1.7B parámetros— haciéndolos ideales para su implementación en smartphones y otros dispositivos de borde con recursos de procesamiento y memoria limitados.

QQ20241105-095741.png

El modelo SmolLM2-1B supera al modelo Llama1B de Meta en varias pruebas de referencia clave, mostrando un rendimiento especialmente destacado en razonamiento científico y tareas de sentido común. El modelo supera a modelos de la competencia más grandes en la mayoría de los benchmarks cognitivos, utilizando una combinación diversa de conjuntos de datos que incluyen FineWeb-Edu y conjuntos de datos específicos de matemáticas y codificación.

El lanzamiento de SmolLM2 llega en un momento crucial para la industria de la inteligencia artificial, que se enfrenta a los desafíos computacionales de ejecutar grandes modelos de lenguaje (LLM). Mientras que compañías como OpenAI y Anthropic continúan superando los límites del tamaño de los modelos, crece la conciencia de la necesidad de IA eficiente y ligera que pueda ejecutarse localmente en los dispositivos.

QQ20241105-095748.png

SmolLM2 ofrece un enfoque diferente, llevando la potencia de la IA directamente a los dispositivos personales, apuntando hacia un futuro donde más usuarios y empresas puedan utilizar herramientas de IA avanzadas, y no solo los gigantes tecnológicos con enormes centros de datos. Estos modelos soportan una gama de aplicaciones, incluyendo la reescritura de texto, el resumen y las llamadas a funciones, siendo adecuados para su implementación en escenarios donde la privacidad, la latencia o las limitaciones de conectividad hacen que las soluciones de IA basadas en la nube sean poco prácticas.

Si bien estos modelos más pequeños todavía tienen limitaciones, representan parte de una tendencia más amplia hacia modelos de IA más eficientes. El lanzamiento de SmolLM2 sugiere que el futuro de la IA puede no residir únicamente en modelos cada vez más grandes, sino en arquitecturas más eficientes capaces de ofrecer un rendimiento potente con menos recursos.