Récemment, AMD a lancé sa nouvelle série d'APU Strix Point, mettant en avant ses performances exceptionnelles dans les applications de grands modèles linguistiques (LLM) basés sur l'IA, surpassant largement la série de processeurs Lunar Lake d'Intel. La demande croissante en matière de charge de travail liée à l'IA exacerbe la compétition dans le secteur du matériel. Pour répondre aux besoins du marché, AMD a introduit un processeur IA conçu pour les plateformes mobiles, visant des performances supérieures et une latence réduite.
AMD affirme que son processeur Ryzen AI300 de la série Strix Point permet d'améliorer considérablement le nombre de jetons traités par seconde lors des tâches liées aux LLM d'IA. Par rapport au Core Ultra 258V d'Intel, le Ryzen AI9375 affiche une amélioration des performances de 27 %. Bien que le Core Ultra 7V ne soit pas le modèle le plus rapide de la série Lunar Lake, son nombre de cœurs et de threads est proche de celui des processeurs Lunar Lake haut de gamme, soulignant la compétitivité des produits AMD dans ce domaine.
L'outil LM Studio d'AMD, une application grand public basée sur le framework llama.cpp, vise à simplifier l'utilisation des grands modèles linguistiques. Ce framework optimise les performances des processeurs x86, permettant l'exécution des LLM sans GPU, bien que l'utilisation d'un GPU puisse accélérer davantage le traitement. Selon les tests, le Ryzen AI9HX375 affiche une latence 35 fois inférieure avec le modèle Meta Llama 3.21b Instruct, atteignant 50,7 jetons par seconde, contre 39,9 pour le Core Ultra 7258V.
De plus, l'APU Strix Point est équipé d'une puissante carte graphique intégrée Radeon basée sur l'architecture RDNA 3.5. Grâce à l'API Vulkan, les tâches sont déchargées sur l'iGPU, améliorant encore les performances des LLM. En utilisant la technologie de gestion dynamique de la mémoire graphique (VGM), le processeur Ryzen AI300 optimise l'allocation de la mémoire, améliorant l'efficacité énergétique et aboutissant à une augmentation des performances pouvant atteindre 60 %.
Lors de tests comparatifs effectués sur la plateforme Intel AI Playground avec les mêmes paramètres, AMD a constaté que le Ryzen AI9HX375 était 87 % plus rapide que le Core Ultra 7258V sur Microsoft Phi 3.1, et 13 % plus rapide sur le modèle Mistral 7b Instruct 0.3. Néanmoins, une comparaison avec le Core Ultra 9288V, le produit phare de la série Lunar Lake, serait des plus intéressantes. Actuellement, AMD se concentre sur la démocratisation de l'utilisation des grands modèles linguistiques grâce à LM Studio, visant à faciliter l'accès à ces technologies pour les utilisateurs non techniques.
Points clés :
🌟 Les APU AMD Strix Point offrent une amélioration des performances de 27 % dans les applications LLM d'IA par rapport à la série Intel Lunar Lake.
⚡ Le Ryzen AI9HX375 affiche une latence 3,5 fois inférieure avec le modèle Meta Llama 3.2.
🚀 L'outil LM Studio vise à simplifier l'utilisation des grands modèles linguistiques, les rendant accessibles aux utilisateurs non techniques.