Récemment, Google DeepMind a dévoilé son dernier système d'IA : AlphaChip. Ce système vise à accélérer et à optimiser le développement de puces informatiques. La conception de puces réalisée par AlphaChip est déjà utilisée dans les accélérateurs d'IA de Google.
Le fonctionnement d'AlphaChip est similaire à celui d'AlphaGo et d'AlphaZero, qu'on connait déjà : il utilise l'apprentissage par renforcement pour générer rapidement des conceptions de puces optimisées.
Selon Google DeepMind, AlphaChip a été utilisé dans les trois dernières générations d'accélérateurs d'IA TPU (Tensor Processing Unit). Dans la dernière génération, la sixième — Trillium — AlphaChip a permis la conception de la disposition de 25 modules, réduisant la longueur des câbles de 6,2 % par rapport à une conception réalisée par des experts humains. Cela démontre une amélioration significative des performances.
Le processus de conception d'AlphaChip peut être comparé à un jeu : le système place les composants de circuits un par un sur une grille. Pour aider le système à apprendre les relations entre les composants et à généraliser sur différentes puces, DeepMind a développé un réseau neuronal graphique. Il est important de noter que Google n'est pas la seule entreprise à utiliser AlphaChip ; des fabricants de puces comme MediaTek l'utilisent également, notamment pour le développement de leurs puces les plus avancées, comme la puce 5G phare Dimensity pour les smartphones Samsung.
Au-delà de l'augmentation de la vitesse et de l'efficacité de la conception de puces, Google DeepMind envisage d'optimiser davantage l'ensemble du cycle de conception des puces. Les futures versions d'AlphaChip devraient couvrir toutes les étapes, de l'architecture informatique à la fabrication, dans le but de rendre les puces plus rapides, moins chères et plus économes en énergie.
Pour ce faire, DeepMind a également décidé d'open-sourcer certaines ressources d'AlphaChip. Ils ont publié une bibliothèque logicielle permettant de reproduire intégralement les méthodes décrites dans l'étude originale. Les chercheurs externes peuvent utiliser cette bibliothèque pour pré-entraîner différents modules de puces, puis les appliquer à de nouveaux modules.
De plus, DeepMind fournit un point de contrôle de modèle pré-entraîné sur 20 modules TPU. Il est conseillé aux chercheurs externes de pré-entraîner ce modèle sur des modules d'application spécifiques pour obtenir des résultats optimaux. DeepMind a également fourni des tutoriels sur l'utilisation de ces ressources open source pour le pré-entraînement, et les a mis à disposition sur GitHub.
Points clés :
🌟 AlphaChip est un système d'IA développé par Google DeepMind, destiné à accélérer et optimiser la conception de puces.
🔍 Ce système a déjà été utilisé dans la dernière génération de TPU de Google et a permis une optimisation significative de la disposition des composants.
📚 DeepMind a open-sourcé une partie des ressources d'AlphaChip, permettant aux chercheurs externes de les utiliser pour le pré-entraînement et les applications.