L'intelligence artificielle (IA) est aujourd’hui au cœur des transformations économiques et sociales. Du secteur bancaire à celui de la santé, ses applications promettent gains d'efficacité, automatisation et prédictibilité. Pourtant, son développement soulève une interrogation centrale : celle de sa durabilité. En effet, l'entraînement et le fonctionnement des modèles d’IA, en particulier ceux reposant sur l'apprentissage profond, consomment des ressources massives. Dans ce contexte, le droit se trouve confronté à une double exigence : accompagner l'innovation sans négliger la contrainte environnementale. À ce jour, aucun instrument juridique contraignant ne prend véritablement en compte l'empreinte écologique de l’IA.
Comment le droit peut-il intégrer la durabilité dans le cycle de vie de l’intelligence artificielle, de la conception à l’usage ? Il s’agira d’analyser d’abord les effets ambivalents de l’IA sur l’environnement (I), avant de montrer que le droit commence à poser les bases d’un encadrement normatif en faveur d’une IA responsable (II).

I. Une technologie aux effets ambivalents sur l'environnement

A- L'empreinte écologique des systèmes d'intelligence artificielle

L'entraînement des modèles d’IA, nécessite des centres de données hyperpuissants, souvent alimentés par des énergies fossiles. Selon une étude de Strubell et al. (2019), l’entraînement d’un seul modèle de langage de grande taille peut produire autant de CO2 qu’un aller-retour transatlantique pour 300 passagers. De plus, la demande croissante de serveurs GPU intensifie la pression sur les ressources minières rares (lithium, cobalt), accentuant les enjeux géopolitiques liés à l'extraction. Malgré quelques initiatives de mesure, la transparence sur les données environnementales des grands groupes reste limitée, faute d’obligations légales claires.

B- Des applications au service de la transition écologique

Paradoxalement, l’IA peut contribuer à l’optimisation des ressources. Elle est utilisée dans les réseaux de distribution d’énergie pour lisser la consommation, dans l’agriculture pour modéliser les conditions climatiques, ou encore pour prédire la production d’énergies renouvelables. Le programme Copernicus de l’Union européenne, par exemple, repose en partie sur des technologies IA pour surveiller les écosystèmes. Ces bénéfices, cependant, ne doivent pas occulter la nécessité de contrôler la balance coûts-bénéfices à l’échelle environnementale.

II. Vers un encadrement juridique de l'impact environnemental de l'IA

A- Une réglementation en construction à l’échelle européenne et internationale

La proposition de règlement européen sur l’intelligence artificielle (AI Act) adoptée en mai 2024 vise essentiellement les risques sociaux (discrimination, surveillance), mais elle ne contient à ce jour aucune disposition contraignante sur les impacts environnementaux. Pourtant, cette lacune va à l’encontre du Pacte vert pour l’Europe (Green Deal), qui ambitionne la neutralité carbone de l’UE d’ici 2050. Le droit international de l’environnement, via les principes de prévention et de précaution, pourrait servir de fondement à une régulation plus ambitieuse. Une coopération entre institutions environnementales et autorités de régulation du numérique devient ainsi nécessaire pour bâtir une gouvernance environnementale des technologies émergentes.

B- L’émergence du concept de « technologie responsable » dans le droit

Certains instruments nationaux peuvent préfigurer un encadrement plus strict. En France, la loi sur le devoir de vigilance (2017) impose aux grandes entreprises de prévenir les risques environnementaux dans leur chaîne de valeur. Les opérateurs d’IA pourraient être soumis à des obligations similaires. Par ailleurs, la régulation extra-financière (notamment la directive CSRD) pousse à inclure les externalités environnementales des technologies dans les bilans de durabilité. À terme, la combinaison de labels de durabilité, de transparence sur les coûts énergétiques et de contraintes réglementaires spécifiques pourrait conduire à l’émergence d’un droit de la « sobriété numérique ».
L’intelligence artificielle, bien qu’outil de progrès, ne peut se déployer au détriment des objectifs environnementaux. Le rôle du juriste est de structurer un encadrement équilibré, qui assure la compatibilité entre performance algorithmique et soutenabilité. Ce défi appelle une approche transversale du droit, mobilisant à la fois le droit de l’environnement, le droit économique et le droit de la responsabilité.

Sources :

- Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and Policy Considerations for Deep Learning in NLP. ACL.
- Proposition de règlement sur l’intelligence artificielle (AI Act), version 2024
- Charte de l’environnement (France), 2004
- Pacte vert pour l’Europe (Green Deal), 2019
- Loi n°2017-399 du 27 mars 2017 relative au devoir de vigilance
- Directive CSRD (2022/2464)