Eine kürzlich von DeepMind veröffentlichte Studie über die Anwendung von extrem großen Transformer-Modellen im Schach hat in der KI-Community breite Diskussionen ausgelöst. Forscher trainierten Transformer-Modelle mit bis zu 270 Millionen Parametern, basierend auf dem neuen Datensatz ChessBench, um deren Fähigkeiten bei komplexen Planungsproblemen wie Schach zu untersuchen.

Der ChessBench-Datensatz enthält 10 Millionen Schachpartien von der Plattform Lichess, die mit der Top-Schachengine Stockfish16 annotiert wurden. Er bietet über 15 Milliarden Datenpunkte, darunter die Gewinnwahrscheinlichkeit, der beste Zug und die Bewertung aller legalen Züge für jeden Spielzustand.

image.png

Die Forscher verwendeten überwachtes Lernen, um das Transformer-Modell zu trainieren, den Wert jedes legalen Zuges für einen gegebenen Spielzustand vorherzusagen. Die Ergebnisse zeigten, dass selbst das größte Modell ohne explizite Suchalgorithmen ziemlich genaue Vorhersagen für neue Spielzustände treffen konnte, was seine starke Generalisierungsfähigkeit unterstreicht.

Erstaunlicherweise erreichte das Modell bei Schnellschachpartien gegen menschliche Spieler auf der Lichess-Plattform eine Elo-Bewertung von 2895 und damit das Niveau eines Schachmeisters.

image.png

Die Forscher verglichen das Modell auch mit Schach-Engines wie Leela Chess Zero und AlphaZero, die mit verstärktem Lernen und Selbstspiel trainiert wurden. Die Ergebnisse zeigen, dass zwar eine Annäherung des Stockfish-Suchalgorithmus in das Transformer-Modell durch überwachtes Lernen möglich ist, die perfekte Reproduktion jedoch weiterhin eine Herausforderung darstellt.

Diese Studie zeigt das enorme Potenzial von extrem großen Transformer-Modellen bei der Lösung komplexer Planungsprobleme und liefert neue Ansätze für die Entwicklung zukünftiger KI-Algorithmen. Die Veröffentlichung des ChessBench-Datensatzes bietet Forschern eine neue Benchmark-Plattform zur Erforschung der Planungsfähigkeiten von KI.