Laut Bloomberg hat OpenAI eine interne Messlatte entwickelt, um den Fortschritt seiner großen Sprachmodelle in Bezug auf künstliche allgemeine Intelligenz (AGI) zu verfolgen. Dieser Schritt unterstreicht nicht nur OpenAIs Ambitionen im Bereich AGI, sondern bietet der Branche auch einen neuen Maßstab zur Bewertung der KI-Entwicklung.

Die Messlatte umfasst fünf Stufen: 1. Stufe: Aktuelle Chatbots wie ChatGPT gehören zu dieser Stufe. 2. Stufe: Systeme, die in der Lage sind, grundlegende Probleme auf Doktorandenniveau zu lösen. OpenAI behauptet, dieser Stufe nahe zu sein. 3. Stufe: KI-Agenten, die im Namen des Benutzers handeln können. 4. Stufe: KI, die in der Lage ist, neue Innovationen zu schaffen. 5. Stufe: KI, die die Arbeit einer gesamten Organisation ausführen kann, die als letzter Schritt zur Erreichung von AGI angesehen wird.

OpenAI hat AGI zuvor als „ein hochsouveränes System definiert, das den Menschen in den meisten wirtschaftlich wertvollen Aufgaben übertrifft“. Diese Definition ist für die Ausrichtung des Unternehmens von entscheidender Bedeutung, da die Struktur und der Auftrag von OpenAI auf die Erreichung von AGI ausgerichtet sind.

OpenAI, Künstliche Intelligenz, KI

Experten sind sich jedoch uneins über den Zeitplan für die Realisierung von AGI. Sam Altman, CEO von OpenAI, erklärte im Oktober 2023, dass die Realisierung von AGI noch „fünf Jahre“ entfernt sei. Selbst wenn AGI erreicht werden kann, wären jedoch Milliarden von Dollar an Rechenressourcen erforderlich.

Bemerkenswert ist, dass die Veröffentlichung dieses Bewertungssystems zeitgleich mit der Ankündigung von OpenAI erfolgte, mit dem Los Alamos National Laboratory zusammenzuarbeiten, um zu untersuchen, wie fortschrittliche KI-Modelle wie GPT-4 sicher bei der biowissenschaftlichen Forschung eingesetzt werden können. Diese Zusammenarbeit zielt darauf ab, für die US-Regierung einen Satz von Sicherheits- und anderen Bewertungsfaktoren zu erstellen, die in Zukunft zur Prüfung verschiedener KI-Modelle verwendet werden können.

Obwohl OpenAI sich weigert, detaillierte Informationen darüber zu liefern, wie Modelle diesen internen Stufen zugeordnet werden, berichtete Bloomberg, dass die Unternehmensführung kürzlich ein Forschungsprojekt mit dem GPT-4-KI-Modell vorgestellt hat, von dem sie der Ansicht ist, dass es einige neue Fähigkeiten zeigt, die menschlicher Argumentation ähneln.

Diese Methode zur Quantifizierung des AGI-Fortschritts trägt zu einer präziseren Definition der KI-Entwicklung bei und vermeidet subjektive Interpretationen. Sie wirft jedoch auch einige Bedenken hinsichtlich der Sicherheit und Ethik von KI auf. Im Mai dieses Jahres löste OpenAI sein Sicherheitsteam auf, wobei einige ehemalige Mitarbeiter angaben, dass die Sicherheitskultur des Unternehmens der Produktentwicklung gewichen sei, obwohl OpenAI dies bestreitet.