Recentemente, um estudo realizado pela organização sem fins lucrativos Epoch AI revelou o consumo de energia do ChatGPT, a plataforma de chatbot da OpenAI. Os resultados mostraram que o consumo de energia do ChatGPT é muito menor do que as estimativas anteriores. De acordo com alguns relatos, o ChatGPT consome cerca de 3 watts-hora de eletricidade para responder a uma pergunta, mas o estudo da Epoch AI sugere que esse número foi superestimado. O estudo indica que, usando o modelo padrão mais recente da OpenAI, o GPT-4o, o consumo de energia médio por consulta é de apenas cerca de 0,3 watts-hora, um número menor do que o consumo de energia de muitos eletrodomésticos.

ChatGPT OpenAI Inteligência Artificial (1)

Joshua You, analista de dados da Epoch AI, afirma que as preocupações tradicionais sobre o consumo de energia da IA ​​não refletem com precisão a situação atual. A estimativa anterior de 3 watts-hora baseou-se principalmente em pesquisas e suposições desatualizadas, assumindo que a OpenAI estava usando chips menos eficientes. You também observa que, embora existam preocupações legítimas sobre o consumo de energia da IA ​​no futuro, não há uma compreensão clara da situação atual.

No entanto, You admite que o número de 0,3 watts-hora da Epoch é apenas uma aproximação, pois a OpenAI não divulgou dados detalhados sobre o consumo de energia. Além disso, a análise não levou em consideração o consumo de energia de recursos adicionais, como geração de imagens ou processamento de entrada. Para consultas de entrada mais longas, como aquelas com muitos arquivos, You afirma que o consumo de energia pode ser maior.

Apesar dos baixos dados de consumo de energia atuais, You prevê um aumento no consumo de energia no futuro. Ele menciona que, com o avanço da tecnologia de IA, a demanda de energia para treinar esses modelos pode aumentar, e a IA do futuro pode assumir tarefas mais complexas, consumindo mais eletricidade.

Simultaneamente, a infraestrutura de IA está se expandindo rapidamente, o que levará a uma enorme demanda de energia. Por exemplo, de acordo com um relatório da Rand Corporation, espera-se que os data centers de IA necessitem de quase toda a energia da Califórnia em 2022 nos próximos dois anos. Até 2030, o consumo de energia para treinar um modelo de ponta atingirá o equivalente à saída de energia de oito reatores nucleares.

A OpenAI e seus parceiros de investimento planejam investir bilhões de dólares em novos projetos de data centers de IA nos próximos anos. Com o desenvolvimento da tecnologia de IA, o setor está começando a se concentrar em modelos de raciocínio, que são mais capazes de lidar com tarefas, mas também exigem mais capacidade de computação e suporte de energia.

Para aqueles preocupados com o consumo de energia de sua IA, You sugere reduzir a frequência de uso ou escolher modelos com menor demanda computacional.

Destaques:

🌱 O consumo de energia médio do ChatGPT é de 0,3 watts-hora, muito menor do que a estimativa anterior de 3 watts-hora.

🔌 O aumento do consumo de energia da IA ​​está principalmente relacionado ao progresso tecnológico futuro e ao processamento de tarefas mais complexas.

🏭 A OpenAI planeja investir bilhões nos próximos anos na expansão de data centers de IA para atender à crescente demanda de energia.