DeepMind-Studie: Selbstkorrektur bei großen Sprachmodellen

Eine neue Studie von Google DeepMind zeigt, dass große Sprachmodelle Schwierigkeiten haben, ihre eigenen Denkfehler ohne externe Anleitung zu korrigieren. Die Forscher fanden heraus, dass Modelle, die versuchen, ihre anfängliche Antwort allein basierend auf ihren eigenen Überlegungen zu korrigieren, häufig Fehler machen.

Die Studie ergab außerdem, dass die Erzielung von Selbstkonsistenz durch Abstimmung mehrerer Modelle zwar möglich ist, dies aber nicht mit echter Selbstkorrektur gleichzusetzen ist. Die Forscher betonen die Bedeutung dieser Ergebnisse für die Entwicklung sicherheitskritischer Anwendungen.

Sie fordern dazu auf, die Potenziale und Grenzen der Selbstkorrektur besser zu verstehen und die bestehenden Sprachmodelle weiter zu verbessern.