Récemment, Apple a annoncé avoir opté pour les unités de traitement tensoriel (TPU) de Google, plutôt que les unités de traitement graphique (GPU) NVIDIA largement utilisées dans le secteur, pour le développement de ses modèles d'intelligence artificielle. Cette information a été révélée dans un article technique publié lundi par Apple, détaillant les dernières avancées de la société en matière d'IA.

Puce Technologie (3)

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Apple a révélé avoir utilisé un cluster de TPU de Google Cloud Platform, plus précisément les versions v4 et v5p, pour entraîner son modèle de base Apple (AFM). Dans son article de recherche, Apple mentionne que « le modèle AFM a été pré-entraîné sur un cluster de TPU Cloud v4 et v5p, en utilisant le framework AXLearn, une bibliothèque d'apprentissage profond basée sur JAX, spécialement conçue pour le cloud public ».

Cette décision d'Apple est particulièrement importante pour son projet à venir, « Apple Intelligence », qui alimentera une série de nouvelles fonctionnalités basées sur l'IA au sein de l'écosystème Apple. Il est à noter que NVIDIA occupe une position dominante sur le marché des puces d'IA, ses GPU étant le choix privilégié pour les recherches de pointe en IA dans le monde. Le secteur estime généralement que NVIDIA détient jusqu'à 95 % de parts de marché dans les puces d'IA.

Le choix par Apple des TPU de Google plutôt que des GPU de NVIDIA signifie que les grandes entreprises technologiques explorent d'autres options. Cela montre également que les capacités de Google en matière de TPU sur mesure ne cessent de s'améliorer. Initialement développées pour un usage interne, ces TPU sont désormais proposées aux clients externes. Parallèlement, Meta a récemment collaboré avec Groq pour utiliser ses LPUs pour l'exécution et l'inférence de Llama3.1.

Dans son article de recherche, Apple indique avoir utilisé 8192 puces TPUv4 pour son modèle d'IA basé sur serveur, tandis que 2048 puces TPUv5p ont été utilisées pour le modèle d'IA embarqué destiné aux iPhone et autres appareils Apple. Ces déploiements à grande échelle témoignent de l'ambition d'Apple dans le domaine de l'IA et de la puissance de calcul nécessaire à l'entraînement de modèles linguistiques avancés.

Bien que les analystes du secteur spéculent que le choix d'Apple pourrait être lié à l'efficacité des coûts, aux avantages en termes de performances ou à un partenariat stratégique, Apple n'a pas précisé les raisons de son choix des TPU de Google. Alors qu'Apple commence à déployer certaines fonctionnalités du framework « Apple Intelligence » auprès d'utilisateurs testeurs, il est clair qu'elle entend intensifier sa concurrence dans le domaine de l'IA.

Points clés :

1. 📊 Le choix par Apple des TPU de Google pour l'entraînement de ses modèles d'IA, plutôt que des GPU de NVIDIA, marque une diversification des choix matériels en IA.

2. 🌐 Le projet « Apple Intelligence » d'Apple utilisera les TPU pour le développement de fonctionnalités d'IA, démontrant l'ambition de l'entreprise dans le domaine de l'IA.

3. 🤖 Apple a déployé un grand nombre de puces TPU pour répondre aux besoins d'entraînement de ses modèles d'IA, ce qui témoigne de son investissement et de sa détermination technologiques.