Kürzlich hat Google DeepMind sein neuestes KI-System, AlphaChip, vorgestellt. Dieses System dient der Beschleunigung und Optimierung der Entwicklung von Computerchips. Die von AlphaChip entworfenen Chip-Layouts werden bereits in Googles KI-Beschleunigern eingesetzt.
AlphaChips Funktionsweise ähnelt der von AlphaGo und AlphaZero, die wir bereits kennen. Es verwendet Reinforcement Learning (verstärkendes Lernen), um schnell optimierte Chip-Layouts zu generieren.
Laut Google DeepMind wurde AlphaChip bereits in den letzten drei Generationen von Tensor Processing Units (TPU) KI-Beschleunigern eingesetzt. In der neuesten sechsten Generation der TPU, Trillium, realisierte AlphaChip das Layout von 25 Modulen. Im Vergleich zu menschlichen Experten konnte die Länge der Verkabelung um 6,2 % reduziert werden. Dies zeigt eine deutliche Leistungssteigerung durch AlphaChip.
Der Designprozess von AlphaChip kann man sich wie ein Spiel vorstellen: Das System platziert nacheinander Schaltungskomponenten auf einem Raster. Um dem System das Erlernen der Beziehungen zwischen den Komponenten und die Übertragung auf verschiedene Chips zu erleichtern, hat DeepMind ein spezielles Graph Neural Network (Graphisches neuronales Netzwerk) entwickelt. Es ist erwähnenswert, dass nicht nur Google, sondern auch andere Unternehmen wie der Chip-Hersteller MediaTek AlphaChip nutzen, insbesondere bei der Entwicklung ihrer fortschrittlichsten Chips, wie beispielsweise dem Dimensity Flaggschiff-5G-Chip für Samsung Smartphones.
Neben der Steigerung von Geschwindigkeit und Effizienz bei der Chipentwicklung sieht Google DeepMind auch das Potenzial für eine weitere Optimierung des gesamten Chipdesignprozesses. Zukünftige Versionen von AlphaChip sollen alle Phasen vom Computerdesign bis zur Fertigung abdecken, mit dem Ziel, Chips schneller, günstiger und energiesparender zu machen.
Zu diesem Zweck gibt DeepMind auch einige Ressourcen von AlphaChip als Open Source frei. Sie haben eine Softwarebibliothek veröffentlicht, mit der die im Originalforschungsbericht beschriebenen Methoden vollständig reproduziert werden können. Externe Forscher können diese Bibliothek nutzen, um verschiedene Chipmodule vorzutrainieren und diese dann auf neue Module anzuwenden.
Darüber hinaus stellt DeepMind einen vortrainierten Modell-Checkpoint bereit, der mit 20 TPU-Modulen trainiert wurde. Externe Forscher werden dazu aufgefordert, ein Vortraining auf spezifischen Anwendungsmodulen durchzuführen, um optimale Ergebnisse zu erzielen. DeepMind bietet auch Tutorials zur Verwendung dieser Open-Source-Ressourcen für das Vortraining an und hat diese auf GitHub hochgeladen.
Wichtigste Punkte:
🌟 AlphaChip ist ein von Google DeepMind entwickeltes KI-System zur Beschleunigung und Optimierung des Chipdesigns.
🔍 Das System wurde bereits in Googles neuester TPU-Serie eingesetzt und hat zu einer erheblichen Layout-Optimierung geführt.
📚 DeepMind gibt einen Teil der AlphaChip-Ressourcen als Open Source frei, sodass externe Forscher diese Ressourcen für das Vortraining und die Anwendung nutzen können.