Une récente étude menée par l'organisation à but non lucratif Epoch AI a révélé la consommation énergétique de la plateforme de chatbot ChatGPT d'OpenAI. Les résultats montrent que la consommation d'énergie de ChatGPT est bien inférieure aux estimations précédentes. Selon certains rapports, ChatGPT nécessitait environ 3 watts-heure pour répondre à une question, mais l'étude d'Epoch AI estime que ce chiffre a été surestimé. L'étude montre qu'avec le modèle par défaut GPT-4o d'OpenAI, chaque requête ne consomme en moyenne qu'environ 0,3 watt-heure, un chiffre inférieur à la consommation énergétique de nombreux appareils électroménagers.

ChatGPT OpenAI Intelligence Artificielle (1)

Joshua You, analyste de données chez Epoch AI, a déclaré que les inquiétudes traditionnelles concernant la consommation d'énergie de l'IA ne reflétaient pas fidèlement la situation actuelle. L'estimation antérieure de 3 watts-heure était principalement basée sur des recherches et des hypothèses obsolètes, supposant qu'OpenAI utilisait des puces moins efficaces. You a également souligné que, bien que les préoccupations du public concernant la consommation d'énergie future de l'IA soient légitimes, la compréhension de la situation actuelle est floue.

Cependant, You a admis que le chiffre de 0,3 watt-heure d'Epoch est une approximation, car OpenAI n'a pas rendu publiques les données détaillées de calcul de la consommation d'énergie. De plus, cette analyse ne tient pas compte de la consommation d'énergie liée à des fonctionnalités supplémentaires, telles que la génération d'images ou le traitement des entrées. Pour les requêtes d'entrée plus longues, comme celles comportant de nombreux fichiers, You a indiqué que la consommation d'énergie pourrait être plus élevée.

Malgré la faible consommation d'énergie actuelle, You prévoit une augmentation de la consommation d'énergie à l'avenir. Il a mentionné que, avec les progrès de l'IA, les besoins énergétiques pour entraîner ces modèles pourraient augmenter, et que les IA futures pourraient également entreprendre des tâches plus complexes, consommant ainsi plus d'électricité.

Parallèlement, les infrastructures de l'IA se développent rapidement, ce qui entraînera une demande énergétique énorme. Par exemple, selon un rapport de Rand Corporation, les centres de données d'IA pourraient nécessiter presque toute l'électricité consommée par la Californie en 2022 dans les deux prochaines années. D'ici 2030, la consommation d'énergie pour entraîner un modèle de pointe atteindra l'équivalent de la production électrique de huit réacteurs nucléaires.

OpenAI et ses partenaires d'investissement prévoient d'investir des milliards de dollars dans de nouveaux projets de centres de données d'IA au cours des prochaines années. Avec le développement de l'IA, l'attention du secteur se tourne vers les modèles d'inférence, qui sont plus performants pour traiter les tâches, mais nécessitent également plus de puissance de calcul et d'électricité.

Pour ceux qui s'inquiètent de leur consommation d'énergie liée à l'IA, You recommande de réduire la fréquence d'utilisation ou de choisir des modèles moins gourmands en calcul.

Points clés :

🌱 La consommation énergétique moyenne de ChatGPT est de 0,3 watt-heure, soit bien moins que les 3 watts-heure estimés précédemment.

🔌 L'augmentation de la consommation d'énergie de l'IA est principalement liée aux progrès technologiques futurs et au traitement de tâches plus complexes.

🏭 OpenAI prévoit d'investir des sommes considérables dans l'extension des centres de données d'IA au cours des prochaines années pour répondre à la demande énergétique croissante.