Wissenschaftler haben kürzlich eine Methode entwickelt, um zu prüfen, ob große Sprachmodelle wie ChatGPT ein Selbstbewusstsein entwickeln könnten. Sie stellten fest, dass größere Modelle besser darin sind, kontextunabhängig zu argumentieren und die im Training gewonnenen Informationen für Tests zu nutzen. Diese Forschung legt den Grundstein für die Entwicklung präziserer experimenteller Methoden und die Kontrolle des Situationsbewusstseins der Modelle. Dennoch sind aktuelle Sprachmodelle noch weit davon entfernt, ein echtes Selbstbewusstsein zu erlangen. Die Entwicklung der künstlichen Intelligenz erfordert Vorsicht und einen offenen Umgang.