Avec les progrès constants de l'intelligence artificielle, l'équilibre entre innovation et développement durable représente un défi majeur. Récemment, OpenAI a lancé son dernier modèle d'IA, o3, le plus puissant à ce jour. Cependant, outre le coût de fonctionnement de ces modèles, leur impact environnemental suscite une attention croissante.

image.png

Une étude révèle qu'une tâche o3 consomme environ 1 785 kilowattheures d'électricité, soit l'équivalent de la consommation électrique d'un foyer américain moyen sur deux mois. Selon Boris Gamazaychikov, responsable du développement durable de l'IA chez Salesforce, cette consommation énergétique correspond à environ 684 kilogrammes d'équivalent CO₂, comparable aux émissions de cinq réservoirs d'essence pleins.

La version de calcul intensif d'o3 a été soumise à des tests de référence dans le cadre d'ARC-AGI, les calculs étant basés sur la consommation énergétique des GPU standard et le facteur d'émission du réseau électrique. Gamazaychikov déclare : « Avec l'expansion et l'intégration continues de la technologie, nous devons nous concentrer davantage sur ces compromis. » Il ajoute que ce calcul ne prend pas en compte le carbone implicite, se concentrant uniquement sur la consommation énergétique des GPU, et que les émissions réelles pourraient donc être sous-estimées.

Par ailleurs, le data scientist Kasper Groes Albin Ludvigsen indique qu'un serveur HGX équipé de 8 cartes graphiques Nvidia H100 consomme entre 11 et 12 kilowatts, largement supérieur aux 0,7 kilowatts par carte.

Concernant la définition des tâches, Pierre-Carl Langlais, co-fondateur de Pleias, exprime des inquiétudes quant à la conception des modèles, notamment si leur conception ne permet pas une réduction rapide. « La résolution de problèmes mathématiques complexes nécessite de nombreux brouillons, tests intermédiaires et raisonnements », explique-t-il.

Plus tôt cette année, une étude a montré que ChatGPT consommait en moyenne 10 % de la consommation quotidienne en eau d'un être humain par conversation, soit près d'un demi-litre d'eau. Bien que ce chiffre puisse sembler faible, la consommation totale d'eau devient considérable lorsque des millions de personnes utilisent ce chatbot quotidiennement.

Kathy Baxter, architecte principale de l'IA responsable chez Salesforce, met en garde contre le paradoxe de Jevons que pourraient présenter les progrès de l'IA tels que le modèle o3 d'OpenAI. « Bien que l'énergie nécessaire puisse diminuer, la consommation d'eau pourrait augmenter », précise-t-elle.

Face aux défis des centres de données d'IA, tels que la forte consommation d'énergie, les besoins de refroidissement complexes et les infrastructures physiques importantes, des entreprises comme Synaptics et embedUR tentent de résoudre ces problèmes grâce à l'IA en périphérie, afin de réduire la dépendance aux centres de données, de diminuer la latence et la consommation d'énergie, et de permettre une prise de décision en temps réel au niveau des appareils.

Points clés :

🌍 La consommation électrique d'une tâche o3 équivaut à celle d'un foyer sur deux mois.

⛽ Les émissions de CO₂ par tâche équivalent à celles de cinq réservoirs d'essence pleins.

💧 La consommation d'eau de ChatGPT par conversation représente 10 % de la consommation quotidienne moyenne d'un être humain.