Intel ha lanzado el kit de herramientas Extension for Transformers, que utiliza la tecnología LLM Runtime para mejorar significativamente el rendimiento de la inferencia de modelos de lenguaje grandes (LLM) en CPUs, alcanzando hasta 40 veces la velocidad. Este kit de herramientas optimiza los núcleos, admite varias opciones de cuantificación y resuelve problemas en escenarios de chat, demostrando el liderazgo de Intel en el campo de la inteligencia artificial.
Intel lanza el kit de herramientas Extension for Transformers: 40 veces más rendimiento en la inferencia de modelos de lenguaje grandes

站长之家
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.