● L’évaluation de l’empreinte carbone de l’IA est complexe, avec des estimations variables faute de transparence des fournisseurs d'IA même si Mistral AI et Google ont commencé à afficher des premiers résultats. La société française Mistral AI a réalisé la première analyse de cycle de vie d’un modèle de langage.
● Des chercheurs comme Sasha Luccioni et l’écosystème via la Coalition pour une IA durable se mobilisent pour proposer des méthodes standardisées, plus de transparence, et une recherche axée sur la durabilité pour que l’IA contribue à la lutte contre le réchauffement climatique.
Il aura fallu attendre juillet 2025 pour voir paraître la première analyse de cycle de vie (ACV) complète d’un grand modèle de langage, Mistral Large 2. Menée par Carbone 4 pour Mistral AI avec le soutien de l’Ademe, cette étude dresse un état des lieux complet des impacts carbone, eau et matière. Elle confirme différents points : les impacts liés au matériel, à savoir la fabrication des puces et des data centers représentent une part significative de l’empreinte globale de l’IA. « Une plus grande transparence de la part des acteurs de la chaîne de valeur des GPUs, comme NVIDIA, serait nécessaire pour affiner les analyses et fiabiliser les résultats », note Carbone 4. On apprend que la phase d’entraînement de Large 2 a produit près de 20,4 kilotonnes d’équivalent CO₂, consommé 281.000 m³ d’eau et a utilisé l’équivalent de 660 kg de Sb eq (unité standard pour l’épuisement des ressources) de ressources non renouvelables. Une réponse de 400 tokens donnée par l’assistant Le Chat équivaudrait à 1,14 g de CO₂, 45 mL d’eau et 0,16 mg de Sb eq.
Google lève le voile sur Gemini : une requête textuelle médiane de Gemini Apps en mai 2025 consommait 0,24 Wh d’énergie, émettait 0,03 gCO2e et consommait 0,26 ml d’eau. C’est l’équivalent de moins de neuf secondes de télévision. Plus d’infos ici : https://arxiv.org/abs/2508.15734
Un bilan environnemental préoccupant
A l’international, le bilan carbone du numérique est devenu un véritable sujet d’étude à l’heure du dérèglement climatique. Une des raisons ? L’usage de combustibles fossiles (charbon, pétrole, gaz) pour générer l’électricité nécessaire aux réseaux, aux batteries, aux terminaux et surtout aux datacenters où sont stockées les données et les applications, et où se déroulent les calculs informatiques. Depuis 2023, l’impact de l’IA sur les ressources en eau devient un sujet politique majeur au regard de la raréfaction des ressources. Selon une étude de l’Université de Californie à Riverside, poser entre 10 et 30 questions à la version GPT-3 de ChatGPT consomme l’équivalent d’une petite bouteille d’eau de 500 ml.
En France, le sujet fait partie du programme Numérique et environnement de l’Inria, lancé en 2022. Soumya Sudhakar, Vivienne Sze et Sertac Karaman du Massachusetts Institute of Technology (États-Unis) présentaient les résultats préoccupants d’un modèle de simulation concernant le cas spécifique des voitures sans conducteur, fonctionnant à l’électricité pour la motorisation, les capteurs ou l’intelligence artificielle (IA) : si un milliard de véhicules totalement autonomes circulaient dans le monde, leur empreinte carbone serait équivalente à celle de tous les datacenters de la planète !
Un sujet rendu pressant par la montée en puissance de l’IA
Mi-février 2023, une étude publiée s’intéresse à l’impact carbone de l’apprentissage automatique entre 2012 (date clef marquant l’envolée de l’apprentissage profond) et 2021. Les deux auteurs, une chercheuse spécialiste du sujet chez la société Hugging Face, et un postdoctorant de l’université de Montréal au Mila, centre de recherche en IA, ont retenu 95 algorithmes mentionnés dans 77 articles scientifiques, le tout dans cinq domaines de traitement de données.
Il est très difficile d’obtenir toutes les informations nécessaires pour estimer une empreinte carbone détaillée
L’idée n’est pas de chiffrer la quantité de dioxyde de carbone liée à chacun, mais plutôt de dessiner de grandes tendances. « Il est très difficile d’obtenir toutes les informations nécessaires pour estimer une empreinte carbone détaillée, explique Sasha Luccioni, chercheuse et responsable des sujets environnementaux chez Hugging Face. Les articles en IA ont tendance à ne pas dévoiler la puissance de calcul utilisée ni à dire où l’entraînement a eu lieu. »
Des performances moindres ne signifient pas moins d’émissions
Ce travail porte sur la phase d’entraînement des modèles d’apprentissage, très gourmande en puissance de calcul. Premier constat : 73 modèles sur 95 ont été entraînés grâce à une électricité provenant principalement du charbon, du gaz naturel et du pétrole. En guise d’ordre d’idée, les modèles « nourris » au charbon génèrent en moyenne 512 g équivalent CO2 par kilowattheure, contre 100,6 pour ceux usant majoritairement d’hydroélectricité (plusieurs gaz à effet de serre sont impliqués, mais convertis en un équivalent en CO2 pour indiquer un chiffre unique). Ensuite, si plus l’électricité est consommée, plus l’empreinte carbone est importante, ce n’est pas le cas de modèles basés sur l’hydroélectricité, qui maintiennent un niveau bas d’émissions carbonées. Autre découverte : entre deux modèles usant d’énergies fossiles, le moins performant n’aura pas forcément une moindre empreinte carbone.
L’empreinte des algorithmes de traduction se réduit depuis 2019
En revanche, les auteurs n’observent pas de « tendance selon laquelle les émissions carbonées auraient systématiquement augmenté pour chacune des tâches » au fil du temps. Celles des modèles de classification d’image et des chatbots n’ont fait que croître, mais celles des algorithmes de traduction se réduisent depuis 2019. Il reste que l’augmentation globale est indéniable. Les modèles d’apprentissage généraient 487 tonnes équivalent CO2 en moyenne en 2015-2016. En 2020-2022, c’est 2020 tonnes, juste pour l’entraînement. Or, le déploiement a aussi un impact. Une requête faite à ChatGPT aura certes un coût énergétique minime, mais des millions de requêtes des centaines de fois par jour sur plusieurs chatbots deviennent beaucoup plus problématiques. « C’est ce sur quoi je suis en train de travailler, poursuit Sasha Luccioni. Mais dans la mesure où le mode de déploiement, les matériels informatiques utilisés et le dimensionnement, ont tous un rôle important dans l’énergie nécessaire et le carbone émis, c’est une tâche complexe. »
En savoir plus :
Mistral : Notre contribution pour la création d’un standard environnemental mondial pour l’IA | Mistral AI
Google : Measuring the environmental impact of AI inference | Google Cloud Blog
Open AI modèles open source analysés par Sasha Luccioni : The GPT-OSS models are here… and they’re energy-efficient!