Am 6. Januar 2025 veröffentlichte Sam Altman, CEO von OpenAI, einen Neujahrsgruß auf seinem persönlichen Blog, in dem er ankündigte, dass sich das Unternehmen von der Allgemeinen Künstlichen Intelligenz (AGI) auf „Superintelligenz“ konzentrieren werde. Er erklärte, OpenAI sei zuversichtlich, in Zukunft intelligente Systeme zu entwickeln, die die menschliche Intelligenz übertreffen, und hoffe, dass diese Systeme die wissenschaftliche Entdeckung und die gesellschaftliche Entwicklung enorm vorantreiben werden.

Altman erwähnte, dass die derzeitige KI-Technologie zwar noch einige erhebliche Einschränkungen aufweist, darunter hohe Trainingskosten und potenzielle Fehler, er aber glaube, dass diese Probleme in naher Zukunft überwunden werden können. Er betonte, dass die Mission von OpenAI dem langfristigen Wohl der Menschheit diene und dass das Unternehmen bei der Weiterentwicklung der Technologie auch die nötige Vorsicht walten lassen wolle. Er sagte: „Wir sind sehr zuversichtlich, dass jeder in den nächsten Jahren den technischen Fortschritt sehen wird, den wir sehen.“

OpenAI, Künstliche Intelligenz, KI

OpenAI hat sich stets bemüht, das Ziel der Entwicklung einer Allgemeinen Künstlichen Intelligenz zu erforschen. Altman wies darauf hin, dass die Definition von AGI in der Branche immer noch vage sei, OpenAI aber seine eigene Auffassung habe: die Entwicklung intelligenter Systeme, die den Menschen in den wirtschaftlich wertvollsten Arbeiten überlegen sind. Laut Vereinbarung zwischen OpenAI und seinem Partner Microsoft wird Microsoft nach der Realisierung von AGI keinen weiteren Zugriff auf die Technologie haben.

Altman erwähnte besonders, dass das Ziel der Superintelligenz es ermöglichen würde, Wissenschaft und Innovation zu beschleunigen und unsere derzeitigen Fähigkeiten zu übertreffen. Er sagte: „Mit Superintelligenz können wir alles erreichen.“ In einigen seiner früheren Artikel hatte er bereits erwähnt, dass sich Superintelligenz möglicherweise innerhalb der nächsten zehn Jahre entwickeln könnte, was der Menschheit beispiellosen Reichtum und Wohlstand bringen würde.

Allerdings äußerte Altman auch Bedenken hinsichtlich der Sicherheit von Superintelligenz. Er wies darauf hin, dass die Menschheit möglicherweise nicht in der Lage sein könnte, superintelligente Systeme effektiv zu kontrollieren, was zu Unsicherheit hinsichtlich der zukünftigen technologischen Entwicklung führt. Er warnte davor, dass die derzeitigen technischen Mittel keine zuverlässige Kontrolle über Superintelligenz gewährleisten könnten.

Zusammenfassend lässt sich sagen, dass Altmans Neujahrsbotschaft nicht nur den Ehrgeiz von OpenAI im Bereich der Künstlichen Intelligenz zeigt, sondern auch zum Nachdenken über die Sicherheit zukünftiger Technologien anregt.