Eine kürzlich von der Non-Profit-Organisation Epoch AI durchgeführte Studie hat den Energieverbrauch von OpenAIs Chatbot-Plattform ChatGPT untersucht und ergeben, dass dieser deutlich niedriger ist als frühere Schätzungen. Berichten zufolge benötigte ChatGPT etwa 3 Wattstunden Strom, um eine Frage zu beantworten. Epoch AI bezweifelt diese Angaben. Die Studie zeigt, dass mit dem neuesten Standardmodell GPT-4 von OpenAI pro Anfrage durchschnittlich nur etwa 0,3 Wattstunden verbraucht werden – weniger als viele Haushaltsgeräte.

ChatGPT OpenAI Künstliche Intelligenz (1)

Joshua You, Datenanalyst bei Epoch AI, erklärt, dass die traditionellen Bedenken hinsichtlich des Energieverbrauchs von KI die aktuelle Situation nicht genau widerspiegeln. Die frühere Schätzung von 3 Wattstunden basierte hauptsächlich auf veralteten Studien und Annahmen, die von weniger effizienten Chips bei OpenAI ausgingen. You betont, dass zwar berechtigte Bedenken hinsichtlich des zukünftigen Energieverbrauchs von KI bestehen, das aktuelle Bild jedoch nicht klar ist.

You räumt jedoch ein, dass der Wert von 0,3 Wattstunden von Epoch nur ein Näherungswert ist, da OpenAI keine detaillierten Daten zum Energieverbrauch veröffentlicht. Die Analyse berücksichtigt auch nicht den zusätzlichen Energieverbrauch von Zusatzfunktionen wie Bildgenerierung oder Eingabeverarbeitung. Bei längeren Abfragen mit vielen Dateien, so You, könnte der Energieverbrauch höher sein.

Trotz des derzeit niedrigen Energieverbrauchs erwartet You einen Anstieg in Zukunft. Mit dem Fortschritt der KI-Technologie werde der Energiebedarf für das Training dieser Modelle steigen, und zukünftige KI-Systeme könnten komplexere Aufgaben übernehmen und somit mehr Strom verbrauchen.

Gleichzeitig expandiert die KI-Infrastruktur rasant, was zu einem enormen Energiebedarf führt. Laut einem Bericht von Rand könnten KI-Rechenzentren in den nächsten zwei Jahren fast den gesamten Strombedarf Kaliforniens im Jahr 2022 benötigen. Bis 2030 wird der Energieverbrauch zum Trainieren eines Spitzmodells dem Stromverbrauch von acht Kernkraftwerken entsprechen.

OpenAI und seine Investoren planen, in den nächsten Jahren Milliarden von Dollar in neue KI-Rechenzentren zu investieren. Mit der Weiterentwicklung der KI-Technologie konzentriert sich die Branche zunehmend auf Inferenzmodelle, die Aufgaben effizienter bewältigen, aber auch mehr Rechenleistung und Strom benötigen.

Für diejenigen, die sich Sorgen um ihren KI-Energieverbrauch machen, empfiehlt You, die Nutzung zu reduzieren oder rechenintensivere Modelle zu wählen.

Wichtigste Punkte:

🌱 Der durchschnittliche Energieverbrauch von ChatGPT beträgt 0,3 Wattstunden, deutlich weniger als die frühere Schätzung von 3 Wattstunden.

🔌 Der steigende Energieverbrauch von KI hängt hauptsächlich mit zukünftigen technologischen Fortschritten und der Bearbeitung komplexerer Aufgaben zusammen.

🏭 OpenAI plant, in den nächsten Jahren Milliarden von Dollar in den Ausbau von KI-Rechenzentren zu investieren, um den wachsenden Energiebedarf zu decken.