Un estudio reciente realizado por la organización sin fines de lucro Epoch AI ha revelado el consumo de energía de la plataforma de chatbot ChatGPT de OpenAI. Los resultados muestran que el consumo de energía de ChatGPT es mucho menor de lo que se estimaba anteriormente. Según algunos informes, ChatGPT necesita aproximadamente 3 vatios-hora de electricidad para responder a una pregunta, pero el estudio de Epoch AI considera que esta cifra está sobreestimada. El estudio indica que, utilizando el modelo predeterminado más reciente de OpenAI, GPT-4o, el consumo de energía promedio por consulta es de aproximadamente 0,3 vatios-hora, una cifra incluso inferior al consumo de energía de muchos electrodomésticos.
Joshua You, analista de datos de Epoch AI, afirma que las preocupaciones tradicionales sobre el consumo de energía de la IA no reflejan con precisión la situación actual. La estimación anterior de 3 vatios-hora se basaba principalmente en investigaciones y suposiciones obsoletas, que asumían que OpenAI utilizaba chips de baja eficiencia. You también señala que, si bien existen preocupaciones legítimas sobre el consumo de energía futuro de la IA, no existe una comprensión clara de la situación actual.
Sin embargo, You admite que la cifra de 0,3 vatios-hora de Epoch es una aproximación, ya que OpenAI no ha publicado datos detallados sobre el consumo de energía. Además, este análisis no tiene en cuenta el consumo de energía de funciones adicionales, como la generación de imágenes o el procesamiento de entrada. Para consultas de entrada más largas, como las que incluyen una gran cantidad de archivos, You afirma que el consumo de energía podría ser mayor.
A pesar de los bajos datos de consumo de energía actuales, You prevé un aumento en el futuro. Menciona que, a medida que avanza la tecnología de IA, la demanda de energía para entrenar estos modelos podría aumentar, y la IA del futuro podría asumir tareas más complejas, consumiendo así más electricidad.
Al mismo tiempo, la infraestructura de la IA se está expandiendo rápidamente, lo que provocará una enorme demanda de energía. Por ejemplo, según un informe de Rand Corporation, se prevé que en los próximos dos años los centros de datos de IA necesitarán casi toda la energía eléctrica suministrada a California en 2022. Para 2030, el consumo de energía para entrenar un modelo de vanguardia alcanzará el equivalente a la producción de energía de ocho reactores nucleares.
OpenAI y sus socios inversores planean invertir miles de millones de dólares en nuevos proyectos de centros de datos de IA en los próximos años. Con el desarrollo de la tecnología de IA, la atención del sector se está centrando en los modelos de inferencia, que son más capaces de procesar tareas, pero también requieren más capacidad de computación y energía.
Para aquellos preocupados por su consumo de energía de IA, You recomienda reducir la frecuencia de uso o elegir modelos con menor demanda de cálculo.
Puntos clave:
🌱 El consumo de energía promedio de ChatGPT es de 0,3 vatios-hora, muy inferior a la estimación anterior de 3 vatios-hora.
🔌 El aumento del consumo de energía de la IA está principalmente relacionado con los avances tecnológicos futuros y el procesamiento de tareas más complejas.
🏭 OpenAI planea invertir una gran cantidad de dinero en la expansión de los centros de datos de IA en los próximos años para satisfacer la creciente demanda de energía.