Cerebras Systems a récemment annoncé la construction de six nouveaux centres de données en Amérique du Nord et en Europe afin d'améliorer ses capacités d'inférence en intelligence artificielle (IA). Cette initiative renforcera considérablement la puissance de calcul de l'entreprise et soutiendra le développement d'applications IA diverses.

Selon le plan, 85 % de la capacité de calcul sera concentrée aux États-Unis. Trois installations sont déjà opérationnelles à Santa Clara et Stockton en Californie, et à Dallas au Texas. Les nouveaux centres ouvriront prochainement à Minneapolis (prévu pour le deuxième trimestre 2025), Oklahoma City et Montréal (prévu pour le troisième trimestre 2025), ainsi qu'à Atlanta et en France (prévu pour le quatrième trimestre 2025).

Superordinateur Centre de données (3)

Source : Image générée par IA, fournisseur Midjourney

Au cœur de ces nouveaux centres de données se trouve le « Wafer Scale Engine » (moteur à échelle de wafer) développé par Cerebras, une architecture de puce spéciale optimisée pour les applications IA. L'entreprise affirme que son système CS-3 peut traiter 40 millions de jetons de modèle Llama-70B par seconde, améliorant considérablement la vitesse de traitement des tâches d'inférence. Plus de 300 systèmes CS-3 devraient être déployés dans l'installation d'Oklahoma City. Ce centre, construit selon la norme Tier III+3, est résistant aux tornades et aux tremblements de terre et dispose d'une alimentation triplement redondante. Son ouverture est prévue pour juin 2025.

Plusieurs entreprises IA de renom ont déjà signé des accords de partenariat avec Cerebras, notamment la start-up française Mistral et son assistant Le Chat, ainsi que le moteur de recherche de réponses IA Perplexity. Hugging Face et AlphaSense utilisent également la plateforme Cerebras. Cette technologie est particulièrement adaptée aux modèles d'inférence nécessitant des calculs longs et la génération d'un grand nombre de jetons, tels que Deepseek-R1 et OpenAI o3.

Cette expansion s'inscrit dans le cadre de la stratégie d'expansion globale de Cerebras pour 2025. Certaines installations seront exploitées en partenariat avec la société émiratie G42. À Montréal, le nouveau centre géré par Enovum, filiale de Bit Digital, devrait être mis en service en juillet 2025 et offrira une vitesse d'inférence dix fois supérieure à celle des GPU actuels.

Cerebras Systems, une entreprise américaine spécialisée dans le développement de puces IA, utilise un concept unique consistant à utiliser une tranche de silicium entière comme une seule puce. Elle a déjà lancé son troisième moteur à échelle de wafer, le WSE-3. Ce système est utilisé dans des institutions telles que le laboratoire national d'Argonne, le Pittsburgh Supercomputing Center et GlaxoSmithKline. Malgré ses avantages technologiques, il présente certaines limites, telles que l'absence de prise en charge native de CUDA (la norme Nvidia) et une compatibilité serveur inférieure aux solutions Nvidia.

Points clés :

🌍 Cerebras prévoit de construire six nouveaux centres de données en Amérique du Nord et en Europe, principalement aux États-Unis, avec une mise en service prévue pour 2025.

⚡ Les centres de données utiliseront des puces à échelle de wafer uniques, capables de traiter 40 millions de jetons par seconde.

🤝 Plusieurs entreprises IA de renom ont conclu des partenariats avec Cerebras pour exploiter sa capacité d'inférence ultrarapide.