Recientemente, Apple anunció que, en el desarrollo de sus modelos de inteligencia artificial, optó por las unidades de procesamiento de tensor (TPU) de Google en lugar de las unidades de procesamiento de gráficos (GPU) de NVIDIA, ampliamente utilizadas en la industria. Esta noticia se reveló en un documento técnico publicado por Apple el lunes, que detalla los últimos avances en sus capacidades de IA.

Chip Tecnología (3)

Nota de la fuente de la imagen: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney

Apple reveló que utilizó un clúster de TPU de Google Cloud Platform, concretamente las versiones v4 y v5p, para entrenar su modelo fundamental de Apple (AFM). En el documento de investigación, Apple menciona: "El modelo AFM se preentrenó en un clúster de TPU v4 y v5p en la nube, utilizando el framework AXLearn, una biblioteca de aprendizaje profundo basada en JAX, diseñada específicamente para la nube pública."

Esta decisión de Apple es especialmente importante para su próximo plan "Apple Intelligence", que impulsará una serie de nuevas funciones impulsadas por IA dentro del ecosistema de Apple. Cabe destacar que NVIDIA ocupa una posición dominante en el mercado de chips de IA, y sus GPU son la opción preferida para la investigación líder mundial en IA. La industria considera que NVIDIA posee una cuota de mercado de hasta el 95% en chips de IA.

La elección de las TPU de Google sobre las GPU de NVIDIA por parte de Apple significa que las grandes empresas tecnológicas están explorando otras alternativas. Esto también demuestra la creciente capacidad de Google para personalizar sus TPU, inicialmente desarrolladas para uso interno, y ahora disponibles para clientes externos. Simultáneamente, Meta también colaboró recientemente con Groq, utilizando sus LPUs para la ejecución e inferencia de Llama3.1.

En el documento de investigación, Apple indica que utilizaron 8192 chips TPUv4 para el modelo de IA basado en servidor, mientras que para los modelos de IA en dispositivo diseñados para iPhone y otros dispositivos Apple, utilizaron 2048 chips TPUv5p. Estas implementaciones a gran escala muestran la ambición de Apple en el campo de la IA y la capacidad computacional necesaria para entrenar modelos de lenguaje avanzados.

Aunque los analistas de la industria especulan que la elección de Apple podría estar relacionada con la eficiencia de costos, las ventajas de rendimiento o una colaboración estratégica, Apple no ha especificado el motivo de su elección de las TPU de Google. A medida que Apple comienza a implementar algunas funciones del framework "Apple Intelligence" para usuarios de prueba, es evidente su intención de competir de manera más activa en el campo de la IA.

Puntos clave:

1. 📊 La elección de las TPU de Google por parte de Apple para entrenar modelos de IA, en lugar de las GPU de NVIDIA, marca una diversificación en la selección de hardware de IA.

2. 🌐 El plan "Apple Intelligence" de Apple utilizará TPU para el desarrollo de funciones de IA, mostrando la ambición de la compañía en el campo de la IA.

3. 🤖 Apple implementó una gran cantidad de chips TPU para satisfacer las necesidades de entrenamiento de sus modelos de IA, lo que refleja su inversión y determinación en la tecnología.