Lors de la conférence AWS re:Invent 2024, Amazon Web Services (AWS) a annoncé le lancement officiel des instances Amazon Elastic Compute Cloud (EC2) basées sur la puce Trainium2. Ces nouvelles instances offrent une amélioration des performances par rapport aux instances EC2 précédentes basées sur GPU, avec une augmentation de 30 à 40 % du rapport prix-performances. Le PDG d'AWS, Adam Selipsky, a déclaré : « Je suis ravi d'annoncer le lancement officiel des instances Amazon EC2 Trn2 propulsées par Trainium2. »
Outre les instances Trn2, AWS a également présenté les Trn2 UltraServers et a dévoilé la puce Trainium3 AI de nouvelle génération. Les instances Trn2, équipées de 16 puces Trainium2, offrent des performances de calcul pouvant atteindre 20,8 pétaflops. Elles sont conçues pour l'entraînement et le déploiement de grands modèles linguistiques (LLM) comportant des milliards de paramètres.
Les Trn2 UltraServers combinent quatre serveurs Trn2 en un seul système, offrant une puissance de calcul pouvant atteindre 83,2 pétaflops pour une évolutivité accrue. Ces UltraServers disposent de 64 puces Trainium2 interconnectées, répondant ainsi aux besoins croissants des clients en matière de puissance de calcul pour l'entraînement et l'inférence. David Brown, vice-président d'AWS Compute and Networking, a déclaré : « Le lancement des instances Trainium2 et des Trn2 UltraServers offre aux clients la puissance de calcul nécessaire pour résoudre les modèles d'IA les plus complexes. »
AWS a collaboré avec Anthropic pour lancer Project Rainier, un cluster de calcul IA à grande échelle utilisant des centaines de milliers de puces Trainium2. Cette infrastructure soutiendra le développement d'Anthropic, notamment l'optimisation de son produit phare, Claude, pour fonctionner sur le matériel Trainium2.
Par ailleurs, Databricks et Hugging Face collaborent également avec AWS pour exploiter les capacités de Trainium afin d'améliorer les performances et l'efficacité énergétique de leurs produits d'IA. Databricks prévoit d'utiliser ce matériel pour améliorer sa plateforme Mosaic AI, tandis que Hugging Face intégrera Trainium2 à ses outils de développement et de déploiement d'IA.
Parmi les autres clients de Trainium2, on compte Adobe, Poolside et Qualcomm. Adam Selipsky a mentionné qu'après des tests préliminaires de Firefly avec Trainium2, les résultats d'Adobe étaient très satisfaisants, avec des économies importantes attendues. « Poolside prévoit des économies de 40 % par rapport aux autres options », a-t-il ajouté. « Qualcomm utilise Trainium2 pour développer des systèmes d'IA pouvant être entraînés dans le cloud et déployés en périphérie. »
En outre, AWS a annoncé sa puce Trainium3, fabriquée avec un processus de 3 nm. Les UltraServers basés sur Trainium3 devraient être lancés fin 2025 et viser à offrir des performances quatre fois supérieures à celles des Trn2 UltraServers.
Pour optimiser l'utilisation du matériel Trainium, AWS a également lancé Neuron SDK, une suite d'outils logiciels qui aide les développeurs à optimiser les modèles pour obtenir des performances optimales sur les puces Trainium. Ce SDK prend en charge des frameworks tels que JAX et PyTorch, permettant aux clients d'intégrer le logiciel à leurs workflows existants avec un minimum de modifications de code.
Actuellement, les instances Trn2 sont disponibles dans la région États-Unis Est (Ohio), et leur déploiement sera étendu à d'autres régions. Les UltraServers sont actuellement en phase de prévisualisation.
Points clés :
🌟 Les instances Trainium2 d'AWS offrent une amélioration des performances de 30 à 40 % par rapport aux anciennes instances GPU.
💡 Les Trn2 UltraServers combinent plusieurs serveurs Trn2 pour offrir une puissance de calcul accrue, répondant aux besoins des grands modèles d'IA.
🚀 AWS collabore avec plusieurs entreprises pour promouvoir l'application des technologies d'IA, aidant les clients à gagner en termes de coûts et de performances.