Microsoft ha anunciado un nuevo miembro de su familia de modelos de IA generativa Phi: Phi-4. En comparación con las versiones anteriores, Phi-4 ha mejorado en varios aspectos, destacando especialmente su capacidad para resolver problemas matemáticos, gracias a la mejora en la calidad de los datos de entrenamiento.
Hasta el jueves por la noche, el acceso a Phi-4 era relativamente limitado, disponible solo en la plataforma de desarrollo Azure AI Foundry recién lanzada por Microsoft y restringido a fines de investigación bajo el acuerdo de licencia de investigación de Microsoft.
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney
Phi-4 es el último modelo de lenguaje pequeño lanzado por Microsoft, con 14 mil millones de parámetros. Es comparable a otros modelos pequeños como GPT-4o mini, Gemini2.0 Flash y Claude3.5 Haiku, que suelen ser más rápidos y económicos de ejecutar. El rendimiento de los modelos de lenguaje pequeños ha mejorado constantemente en los últimos años.
Microsoft atribuye la mejora del rendimiento de Phi-4 al uso de un "conjunto de datos sintéticos de alta calidad" y un conjunto de datos de alta calidad de contenido generado por humanos, además de mejoras posteriores al entrenamiento no reveladas.
Actualmente, muchos laboratorios de inteligencia artificial están observando de cerca el potencial de los datos sintéticos y el entrenamiento posterior para mejorar el rendimiento de los modelos. Alexandr Wang, CEO de Scale AI, mencionó en un tuit el jueves: "Hemos llegado al cuello de botella de los datos de entrenamiento previos". Esta afirmación corrobora algunos informes recientes sobre este tema.
Además, cabe destacar que Phi-4 es el primer modelo de la serie Phi que se lanza después de la salida del vicepresidente de IA de Microsoft, Sébastien Bubeck. Bubeck desempeñó un papel importante en el campo de la IA de Microsoft y fue una figura clave en el desarrollo de los modelos Phi. Bubeck dejó Microsoft en octubre para unirse a OpenAI.