_Nero AI_Compress_High (1)_99x128.jpg)
IA et transition écologique : entre promesse de durabilité et risques climatiques, quel encadrement juridique en 2025 ?
Par Mahassine El Kharraz
Posté le: 08/06/2025 22:22
Introduction
Le 6 juin 2025, à l’occasion d’une table ronde organisée par l’Institut de la gestion publique et du développement économique (IGPDE), des représentants de l’administration, des chercheurs et des acteurs privés ont débattu d’une question cruciale : l’intelligence artificielle est-elle une menace ou un atout pour l’environnement ? Le sujet ne relève plus de la spéculation : la généralisation de l’IA dans les activités industrielles, agricoles ou logistiques produit des effets concrets, tant en termes de consommation énergétique qu’en matière d’efficacité environnementale.
Alors que les technologies d’intelligence artificielle reposent massivement sur des infrastructures énergivores, notamment les data centers et les chaînes de traitement algorithmique à grande échelle, des initiatives commencent à émerger pour structurer leur usage de manière plus responsable. C’est notamment l’objet du référentiel SPEC 2314 publié en 2024 par l’AFNOR, qui promeut une approche dite "frugale" de l’IA, articulée autour d’indicateurs environnementaux et de principes de communication transparente. Mais ces outils restent essentiellement volontaires, tandis que les législations contraignantes peinent encore à cerner l’ensemble des impacts environnementaux de ces technologies.
Dans ce contexte, se pose une question de fond : les instruments juridiques existants en 2025 sont-ils en mesure d’encadrer efficacement les effets ambivalents de l’intelligence artificielle sur l’environnement, entre promesses écologiques et risques climatiques ?
I. L’intelligence artificielle, catalyseur d’externalités environnementales majeures
L’essor de l’intelligence artificielle repose sur des infrastructures numériques intensives en ressources. L’entraînement de modèles complexes, comme ceux utilisés pour la reconnaissance d’image ou les traitements en langage naturel, mobilise des quantités considérables d’énergie, de puissance de calcul et d’eau pour le refroidissement des serveurs. Selon le rapport publié par l’Union internationale des télécommunications et la World Benchmarking Alliance en juin 2025, les entreprises technologiques impliquées dans l’IA ont généré près de 297 MtCO₂ en 2023 – une empreinte équivalente à celle de plusieurs États sud-américains réunis.
À ces chiffres s’ajoutent les conséquences environnementales indirectes : consommation croissante de terres rares, artificialisation des sols pour les data centers, et intensification des chaînes logistiques numériques. Ce constat a été confirmé lors de la table ronde de l’IGPDE, où des experts du CGDD, de la DGE et de la société XXII ont souligné l’insuffisance actuelle des dispositifs de régulation pour contenir ces impacts. La logique d’innovation rapide et le manque de transparence sur les méthodes de calcul des empreintes carbone rendent toute évaluation précise difficile, d’autant que les obligations légales en matière de reporting extra-financier restent souvent générales et peu contraignantes.
Pourtant, l’IA n’est pas qu’un facteur de risques. Elle peut, dans certains contextes, contribuer à améliorer l’efficacité écologique des activités humaines. Des exemples concrets existent : optimisation des flux logistiques, régulation intelligente des réseaux électriques (smart grids), agriculture de précision, modélisation climatique, ou encore maintenance prédictive dans l’industrie. Ces usages permettent de réduire les déchets, d’optimiser les consommations et de mieux anticiper les impacts environnementaux. Cela suppose toutefois que ces solutions soient elles-mêmes pensées dans une logique de sobriété, en cohérence avec les objectifs climatiques. Le paradoxe tient donc à ce que l’IA peut à la fois accélérer la transition et l’entraver, selon les conditions de son usage.
II. Une régulation juridique en construction face à l’ambivalence environnementale de l’IA
Face à ces constats, le droit tente de structurer une réponse. En 2024, la publication par l’AFNOR du référentiel SPEC 2314 marque une première étape dans la définition de ce que pourrait être une "IA frugale". Ce document, fruit d’un partenariat avec le ministère de la Transition écologique, l’ADEME et plusieurs grands groupes, propose une méthodologie d’analyse du cycle de vie des systèmes d’IA, 31 fiches de bonnes pratiques, et des principes de communication écologique visant à lutter contre le greenwashing. Mais il s’agit d’un outil de soft law, non contraignant, et destiné principalement à orienter les entreprises volontaires. Il peut jouer un rôle dans les stratégies de RSE ou dans la construction d’appels d’offres publics, mais n’a pas de valeur normative directe.
Au niveau européen, l’AI Act, actuellement en phase d’adoption, constitue la première tentative de réglementation systématique de l’intelligence artificielle. Bien que centré principalement sur la gestion des risques sociétaux (discrimination, surveillance, sécurité), le texte contient des dispositions transversales qui pourraient être mobilisées pour intégrer des objectifs environnementaux, notamment à travers le principe "Do No Significant Harm" (DNSH) du Green Deal européen. Toutefois, l’articulation de l’AI Act avec les exigences environnementales reste en grande partie théorique, et aucune obligation spécifique de sobriété énergétique ou de mesure des émissions n’est actuellement prévue dans les systèmes à haut risque.
Le droit français pourrait toutefois évoluer. Certaines propositions visent à faire de la norme SPEC 2314 un critère de sélection dans les marchés publics ou à renforcer les obligations de reporting extra-financier par des indicateurs précis de consommation numérique. Sur le plan contentieux, le Code de l’environnement et le Code civil (article 1240) ouvrent déjà la voie à des actions en responsabilité pour des dommages environnementaux causés par un système d’IA, à condition de démontrer un lien de causalité. La jurisprudence reste encore peu développée sur ce terrain, mais l’émergence de litiges liés à la pollution numérique pourrait accélérer son évolution.
Dans cette dynamique, la création d’un label "IA verte", d’un audit environnemental obligatoire pour les systèmes critiques, ou encore l’intégration de la sobriété numérique dans la certification ISO ou dans les outils de contrôle de conformité (CNIL, ARCOM, AFA) sont autant de pistes à explorer. La gouvernance environnementale de l’intelligence artificielle reste en chantier, mais elle devient incontournable.
Conclusion
L’intelligence artificielle cristallise aujourd’hui les contradictions de notre époque : porteuse d’innovations potentiellement écologiques, elle repose encore sur un modèle énergétique intensif et peu transparent. Face à cette ambivalence, le droit joue un rôle crucial : celui d’encadrer les usages, d’imposer la transparence, et d’orienter les pratiques vers une sobriété numérique durable. Si des outils existent déjà, comme la SPEC 2314 ou les obligations de reporting RSE, leur portée demeure limitée tant qu’ils n’ont pas de caractère contraignant.
Le défi juridique des prochaines années sera de transformer ces initiatives volontaires en normes effectives, soutenues par des mécanismes de contrôle et de sanction. À terme, l’intégration d’une régulation environnementale spécifique dans les textes européens et français pourrait faire de l’IA un véritable levier de la transition écologique. Encore faut-il que les choix politiques et réglementaires soient à la hauteur des enjeux climatiques.
Sources :
AFNOR, Spec 2314 – Référentiel pour une IA frugale, juin 2024.
IGPDE, Table ronde « IA, mal ou remède pour l’environnement ? », 6 juin 2025.
Parlement européen, Projet de règlement AI Act, version consolidée 2025.
Code de l’environnement, art. L. 511-1.
Code de commerce, art. L. 225-102-1.
CNIL, Rapport IP n°9 – Données, empreinte et libertés, avril 2024.
CESE, Avis sur l’IA durable, septembre 2024.