Par Bathscheba Macé et Farah Bencheliha, Avocates expertes du numérique
Le 13 juin 2024, l’Union européenne a adopté le Règlement dit « AI Act » établissant des règles harmonisées concernant l’intelligence artificielle [1].
Ce premier cadre horizontal de régulation de l’IA au niveau mondial s’inscrit dans une grammaire « valorisation et protection » : encourager l’innovation et renforcer la gouvernance des données tout en affirmant le respect des droits fondamentaux et de la sécurité [2].
Cette grammaire faisant la part belle au compromis a été vivement critiquée par l’ensemble des acteurs : trop compliqué, pas assez protecteur et de l’avis général, déconnecté des enjeux qu’il entend inciter ou garantir.
En particulier, les garanties pour les droits fondamentaux semblaient déjà peser moins lourd dans la balance : la protection de l’environnement, pourtant proclamée par l’article 37 de la Charte des droits fondamentaux de l’Union européenne, en est l’un des angles morts les plus significatifs.
L’absence de trajectoire contraignante sur ce point traduisait déjà une insuffisance règlementaire affectant directement la manière dont l’IA et ses impacts pouvaient être appréhendés. Ces manques pouvaient néanmoins être partiellement comblés par les exigences issues d’autres règlementations européennes transversales [3][4].
On aurait pu attendre des travaux menés par la Commission en 2025 qu’ils renforcent cet angle mort. Mais elle a préféré lancer un vaste agenda de simplification affectant plusieurs de ses règlementations récentes.
Le premier ensemble de mesures, définitivement adoptées par le Parlement le 16 décembre
2025, a pris la forme d’un Omnibus « sustainability ». Les seuils d’applicabilité des textes clés de la durabilité des entreprises ont ainsi été relevés de manière significative, réduisant encore le périmètre des entreprises concernées.
Le second ensemble de mesures contenues dans le « Digital Omnibus », proposé le 19 novembre 2025, a ciblé le droit du numérique et spécifiquement le cadre règlementaire gravitant autour de l’intelligence artificielle. La proposition de règlement « horizontale » modifie ainsi le RGPD, la directive ePrivacy, le Data Act et certains instruments de cybersécurité [5]. La proposition de règlement « verticale » dédiée à l’IA introduit, quant à elle, des ajustements ciblés dans le règlement IA [6].
Les objectifs sont clairs : rationaliser un corpus réglementaire numérique pour répondre aux critiques formulées par les acteurs économiques (fragmentation du cadre européen, superposition d’obligations sectorielles et coûts de conformité élevés dans un contexte de concurrence internationale accrue).
On pourrait s’en féliciter si elles ne conduisaient pas à une asymétrie profonde. Tandis que ces textes facilitent les conditions du déploiement de l’IA, les instruments susceptibles de réduire ses impacts environnementaux et humains sont soit absents, soit largement affaiblis. Pourtant les enjeux, eux, sont de plus en plus prégnants.
Le coût global de l’IA : énergie, eau, minerais et droits humains
C’est peut-être contrintuitif mais, par définition, l’IA n’est pas « immatérielle ».
Sa conception comme son déploiement repose sur une industrie extractive plus ou moins directe : pour produire des résultats, l’IA consomme des ressources, mobilise des infrastructures et s’appuie sur des chaînes d’approvisionnement.
Pour commencer [7], à plusieurs niveaux : conception et entrainement du modèle, déploiement et fonctionnement, stockage des données…
La demande des centres de données, tirée par l’IA, passeraient de 1,5% du total mondial en 2024 à 3% à 2030 [8]. Des besoins doublés, donc.
Mais la consommation d’énergie de l’IA n’est que la partie visible de l’iceberg. Comme le rappelle Golestan Sally Radwan, Directrice des affaires numériques au Programme des nations Unies pour l’environnement (PNUE) : les impacts directs de l’IA « vont de l’extraction de matières premières, d’éléments de terres rares et de minéraux pour le matériel nécessaire pour l’IA, à la construction et à l’exploitation des centres de données, en passant par la consommation d’énergie, les émissions de gaz à effet de serre, l’eau utilisée pour le refroidissement, mais aussi les déchets, dont les déchets électroniques » [9].
L’IA consomme donc de l’eau, beaucoup d’eau (parfois même potable), notamment pour refroidir les serveurs utilisés pour le stockage, l’exploitation, la distribution et la production des données. La consommation d’eau des centres de données pourrait ainsi doubler d’ici 2030, atteignant 1 200 milliards de litres en 2030 [10].
Au global, les émissions directes de gaz à effet de serre des centres de données atteindraient jusqu’à 2 fois les émissions totales de la France, pour la production d’électricité comme la construction des centres de données et la production du matériel qu’ils abritent (serveurs, équipements informatiques, infrastructures de refroidissement, bâtiment) [11].
Et l’IA produit également des déchets électroniques dont seuls 22% sont actuellement recyclés correctement [12].
Le coût environnemental et humain de l’IA devrait donc être un enjeu majeur pour la règlementation. Mais qu’en est-il réellement ?
Règlement IA : la protection de l’environnement invoquée … mais non garantie
Le Règlement IA approche la relation entre les systèmes d’IA et l’environnement sous deux angles.
D’abord, il est rappelé que la protection de l’environnement est l’un des intérêts publics que les règles harmonisées sur l’IA doivent garantir (considérants n°1 et 8).
Cet aspect central est, en particulier, évoqué dans le considérant 27, lequel rappelle les travaux du GEHN IA qui, en 2019, a élaboré des lignes directrices pour une IA de confiance comprenant sept principes, dont le « Bien-être social et environnemental ».
La Commission rappelle que ce principe renvoie « au fait que les systèmes d’IA sont développés et utilisés d’une manière durable et respectueuse de l’environnement, mais aussi de manière à ce que tous les êtres humains en profitent, tout en surveillant et en évaluant les effets à long terme sur l’individu, la société et la démocratie ».
Elle poursuit en indiquant que les principes élaborés par le GEHN IA :
– Devraient « se retrouver, autant que possible, dans la conception et l’utilisation des modèles d’IA » et « servir de base à l’élaboration de codes de conduite » ;
– Avant d’« encourager » les « parties prenantes » (soit tout le monde et pas spécifiquement les fournisseurs de système d’IA) à en tenir compte pour « élaborer des bonnes pratiques et des normes volontaires ».
Entre possibilité, encouragements et volontarisme : le ton semble donné. L’analyse des considérants 155 et 165 sur ce même sujet n’atténue pas ce constat.
Ensuite, le règlement valorise les opportunités que l’IA peut présenter pour renforcer la protection de l’environnement (cons. n°4).
Les systèmes d’IA sont ainsi présentés comme « une famille de technologies en évolution rapide, contribuant à un large éventail de bienfaits économiques, environnementaux et sociétaux ».
Parmi ces bienfaits présumés, la Commission cite « la surveillance de l’environnement », « la préservation et la restauration de la biodiversité et des écosystèmes » et « l’atténuation du changement climatique et l’adaptation à celui-ci ».
Les effets positifs de l’IA sur la protection de l’environnement sont par ailleurs cités pour :
– Justifier que les autorités de surveillance du marché puissent déroger à la procédure d’évaluation de conformité en amont de certaines mises sur le marché (cons. n°130) ;
– Encourager les États à soutenir et promouvoir la recherche et le développement de systèmes d’IA impliquant une coopération interdisciplinaire notamment entre les développeurs d’IA, les experts en matière de droits environnementaux et des universitaires (cons. n°142).
Participer à l’atténuation d’un risque que sa conception et son exploitation aura, en partie, contribué à créer : voilà une ambition « circulaire » pour les systèmes d’IA.
Des intentions timides et une absence totale de contraintes
Si règlement IA affiche bien l’ambition de garantir une « protection de l’environnement, contre les effets néfastes de l’IA », il pêche par défaut de stratégie contraignante. Là où le texte devient concret, on trouve deux mesures reposant sur une logique de documentations ou de déclarations.
En premier lieu, l’article 53 du règlement IA prévoit que les fournisseurs de système d’IA à usage général sont tenus à une obligation de documentation technique du modèle, intégrant son processus d’entrainement et les résultats de son évaluation au fil de l’eau.
Les attentes de cette documentation technique sont définies à l’annexe XI du règlement. Parmi elles figurent la description détaillée de certaines informations sur le processus de développement, au nombre desquelles « la consommation d’énergie connue ou estimée ».
C’est utile, mais largement insuffisant pour au moins trois raisons :
– Le périmètre de cette description est particulièrement restreint : nous l’avons rappelé, la consommation d’énergie (électricité) n’est pas l’unique composante de l’empreinte environnementale des systèmes d’IA ;
– Le niveau de contrainte : la mesure de la consommation d’énergie est descriptive. Elle ne vaut pas objectif de réduction. Il suffit donc de constater et de répertorier ;
– L’absence de méthodologie commune : la mesure de la consommation d’énergie ne s’accompagne pas de la présentation d’une méthode de calcul unifiée. D’un côté, elle évoque la consommation « connue » et, de l’autre, sur la consommation « estimée ».
En deuxième lieu, l’article 95 prévoit l’élaboration de codes de conduite « pour l’application volontaire de certaines exigences », parmi lesquelles « l’évaluation et la réduction au minimum de l’incidence des systèmes d’IA sur la durabilité environnementale y compris en ce qui concerne la programmation économe en énergie et les techniques pour la conception, l’entrainement et l’utilisation efficaces de l’IA ».
C’est aussi utile, mais toujours insuffisant.
La trajectoire d’évaluation et de réduction de l’incidence des systèmes d’IA sur la durabilité environnementale est construite par ceux qui ont un intérêt direct à son déploiement, appliquée de manière purement volontariste et sans vision unifiée.
Face aux lacunes du règlement IA, on aurait pu espérer que l’Omnibus numérique vienne corriger le tir. Or, la protection de l’environnement reste un angle mort et les garanties pour les droits fondamentaux se trouvent, elles, réduites.
Le Digital Omnibus : une multiplication du traitement des données à des fins d’IA
La proposition 2025/0360 (COD) COM(2025) 837 final introduit, via son article 3(15), un nouvel alinéa (c) à l’article 6(1) du RGPD. L’intérêt légitime serait ainsi consacré comme base légale d’un traitement de données à caractère personnel « nécessaire aux fins des intérêts du responsable du traitement dans le cadre du développement, de l’entraînement, des tests, de la mise à jour ou de l’exploitation d’un système ou d’un modèle d’IA ».
Certes, cette modification supposera pour le responsable de traitement souhaitant s’appuyer sur l’intérêt légitime, en lieu et place du consentement de :
– Réaliser un test de proportionnalité dont le résultat ne devra pas faire prévaloir l’intérêt légitime du responsable de traitement sur les droits et libertés de la personne concernée, et ;
– Mettre en place des mesures de protection (minimisation des données, sécurité, documentation, transparence accrue).
Mais elle revient, en pratique, à autoriser les responsables de traitement à se passer du consentement des personnes concernées pour réaliser des traitements de données à caractère personnel à grande échelle dont l’objectif serait d’entraîner ou d’améliorer des modèles d’IA.
Cette facilitation s’avère particulièrement significative pour les opérateurs de l’IA : elle leur permet d’accéder massivement aux données d’utilisateurs, de clients ou d’employés pour entraîner et améliorer continuellement leurs modèles, dès lors que l’analyse de proportionnalité conclut à l’absence de préjudice excessif.
Autorisation du traitement de données sensibles pour l’entraînement d’IA
La proposition prévoit également de modifier l’article 9 du RGPD qui énonce l’interdiction de traitement des données dites « sensibles » (données génétiques, biométriques, de santé ou à caractère racial).
Une nouvelle dérogation à l’interdiction de traitement serait ainsi ajoutée dans la liste : le traitement de données sensibles serait autorisé « lorsqu’il est strictement nécessaire pour développer ou mettre à jour un système ou un modèle d’intelligence artificielle » à condition que des « mesures organisationnelles et techniques appropriées » soient mises en œuvre.
Cet ajout élargit considérablement les possibilités d’utilisation de données particulièrement sensibles à des fins d’entraînement de modèles d’IA.
Pour les développeurs d’IA, cela ouvre la possibilité de mobiliser des données génétiques, de santé, ou relatives à l’origine raciale ou ethnique, dans une logique d’amélioration continue de la performance de leurs systèmes, à condition de mettre en place les mesures organisationnelles et techniques appropriées.
Redéfinition relative du caractère « personnel » des données pseudonymisées
La proposition apporte une précision importante à la notion de données à caractère personnel en introduisant un critère relatif : une donnée pseudonymisée ne sera qualifiée de donnée à caractère personnel pour un acteur donné que si cet acteur dispose de « moyens raisonnablement susceptibles d’être utilisés » – techniques, financiers ou juridiques – pour ré-identifier la personne concernée ou pour y contraindre un tiers.
Cette redéfinition produit un effet remarquable : une même information demeure une donnée à caractère personnel pour l’entité qui détient les clés de ré-identification (l’entité amont), mais cesse de l’être pour un destinataire aval qui ne dispose pas de tels moyens. En pratique, cela signifie qu’une entreprise peut recevoir de grandes quantités de données pseudonymisées sans être légalement soumise aux obligations du RGPD, dès lors qu’elle ne dispose pas techniquement ou financièrement de la capacité à ré-identifier les individus.
La proposition habilite en outre la Commission à adopter des actes d’exécution précisant les critères déterminant quand des données pseudonymisées doivent être considérées comme ré-identifiables. Cette compétence vise explicitement à faciliter la circulation et la réutilisation de grands ensembles de données pseudonymisées à fins de développement d’IA.
Autorisation élargie du traitement de données sensibles pour la correction des biais
En parallèle de ces ajustements apportés au RGPD, la proposition de règlement COM (2025) 836 final relative au règlement IA, insère un nouvel article 4a dans le règlement IA, destiné à remplacer et élargir l’actuel article 10(5).
Cet article crée une dérogation spécifique permettant aux fournisseurs et aux déployeurs de systèmes ou modèles d’IA de traiter des catégories particulières de données personnelles lorsque ce traitement est « strictement nécessaire » pour détecter, mesurer ou corriger les biais, y compris les biais discriminatoires.
Cette dérogation s’assortit de conditions cumulatives : l’impossibilité d’atteindre l’objectif au moyen d’autres données (synthétiques ou anonymisées) ; une limitation technique de la réutilisation ultérieure ; la mise en œuvre de mesures de sécurité et de protection de la vie privée élevées, notamment la pseudonymisation ; un encadrement strict de l’accès par journalisation détaillée ; l’interdiction de transfert à des tiers ; et la suppression des données dès que l’objectif est atteint ou le délai de conservation écoulé.
Si cette disposition vise théoriquement à permettre une meilleure détection et correction des biais algorithmiques – objectif louable en soi –, elle ouvre néanmoins la voie à un traitement massif de données sensibles par les développeurs d’IA, sous couvert de lutte contre les discriminations. Or, la frontière entre la correction d’un biais et l’amélioration générale de la performance du modèle demeure difficile à tracer en pratique, ces deux objectifs se confondant fréquemment dans les processus itératifs d’entraînement des systèmes d’IA.
Ces modifications, prises ensemble, viennent atténuer la portée protectrice du RGPD au profit d’une logique de facilitation des traitements nécessaires au développement des systèmes d’IA. Or, et comme rappelé par le Comité européen de la protection des données (EDPB) et le Contrôleur européen de la protection des données (EDPS) dans leur avis conjoint sur la proposition de « Digital Omnibus » en matière d’IA [13], le RGPD n’a pas pour finalité de faciliter le développement de technologies spécifiques, mais de garantir, de manière prioritaire, la protection des droits fondamentaux des personnes face aux traitements de données à caractère personnel.
L’angle mort environnemental confirmé
Face au coût environnemental et humain de l’IA exposé précédemment et aux lacunes manifestes de l’AI Act en matière de contraintes environnementales, on aurait pu espérer que le Digital Omnibus, dans sa volonté affichée de « simplifier » et « améliorer » le cadre réglementaire européen de l’IA, vienne renforcer ces dispositions environnementales manifestement insuffisantes. Or, il n’en est rien.
Combinées, les modifications portées par le digital omnibus ouvrent la voie à des traitements massifs de données pour entraîner des modèles d’IA, explicite et partiellement en dehors du champ du RGPD.
En facilitant le traitement massif de données sans consentement explicite et en rendant les données pseudonymisées transparentes à certains acteurs mais opaques à d’autres, le Digital Omnibus rend paradoxalement plus difficile la traçabilité réelle des impacts environnementaux et humains des systèmes d’IA.
Pire encore : ces simplifications contribuent, sans aucun doute, à encourager l’industrialisation de modèles de plus en plus volumineux et gourmands en ressources, sans qu’aucune contrepartie ne soit imposée en termes de sobriété énergétique, de limitation de la consommation d’eau ou de prise en compte de l’empreinte matérielle des infrastructures nécessaires.
L’idée n’est évidemment pas de clouer l’IA au pilori.
Certaines de ses applications sont essentielles, notamment en matière de santé publique. Pour n’en citer qu’un exemple : la fondation MSF travaille depuis 2022 sur un outil d’IA facilitant le dépistage du cancer du col de l’utérus qui pourrait ainsi contribuer à sauver la vie de près de 300 000 femmes par an.
Mais si l’IA peut apporter concrètement, son déploiement peut aussi accélérer l’atteinte des limites planétaires.
La Commission avait la bonne intention : les deux faces de cette même pièce ne peuvent pas être traitées indépendamment l’une de l’autre. Le calcul coût / avantage semble toutefois avoir fait pencher la balance du côté de l’accompagnement de l’innovation, plus que du côté de la protection de l’environnement.
Certaines initiatives auraient pu apporter une trajectoire plus équilibrée.
En France, le Référentiel général pour l’IA frugale, publié par le Ministère de la transition écologique, a ainsi proposé une méthodologie et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA.
Le Programme pour l’environnement des Nations Unies a, de son côté, formulé une série de cinq recommandations visant à limiter l’impact environnemental de l’IA. L’une d’entre elles invitent les gouvernements à élaborer des réglementations obligeant les entreprises à divulguer les conséquences environnementales directes des produits et services basés sur l’IA [14].
Le temps est venu de s’en inspirer.
[1] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (règlement sur l’intelligence artificielle – « AI Act »), JOUE L du 12 juillet 2024.
[2] Voir notamment considérants 1, 4 et 8 du règlement (UE) 2024/1689, qui articulent les objectifs de soutien à l’innovation, de sécurité et de protection des droits fondamentaux.
[3] Directive (UE) 2022/2464 du Parlement européen et du Conseil du 14 décembre 2022 modifiant le règlement (UE) n° 537/2014, la directive 2004/109/CE, la directive 2006/43/CE et la directive 2013/34/UE en ce qui concerne la publication d’informations en matière de durabilité des entreprises (CSRD).
[4] Directive (UE) 2024/1760 du Parlement européen et du Conseil du 13 juin 2024 relative au devoir de vigilance des entreprises en matière de durabilité et modifiant la directive (UE) 2019/1937 et le règlement (UE) 2023/2859 (Corporate Sustainability Due Diligence Directive).
[5] Proposition de règlement du Parlement européen et du Conseil modifiant le règlement (UE) 2016/679, la directive 2002/58/CE, le règlement (UE) 2022/868 et le règlement (UE) 2023/2854, COM(2025) 837 final (« Digital Omnibus » – volet horizontal).
[6] Proposition de règlement du Parlement européen et du Conseil modifiant les règlements (UE) 2024/1689 et (UE) 2018/1139 en ce qui concerne la simplification de la mise en œuvre de règles harmonisées sur l’intelligence artificielle, COM(2025) 836 final, 19 nov. 2025 (« Digital Omnibus on AI » – volet vertical).
[7] L’énergie ne comprend pas uniquement l’électricité : l’IA ne pouvant supporter les coupures d’alimentation, les infrastructures intègrent systématiquement des relais qui s’appuient sur des batteries mais aussi des groupes électrogènes, alimentés au fioul. Électricité donc, mais également pétrole.
[8] Voir sur ce point les chiffres présentés par l’International Energy Agency (IEA) et notamment ceux présentés dans l’article suivant « A transformative technology with important implications for energy ».
[9] Centre régional d’information pour l’Europe Occidental des Nations Unies, « Intelligence artificielle et environnement : risques et potentiels », 14 fév. 2025.
[10] L. Welgryn et T. Alvès Da Costa, « Intelligence Artificielle : le vrai coût environnemental de la Course à l’IA », Bonpote, 2 sept. 2025.
[11] The Shift Project, « Intelligence artificielle, données, calculs : quelles infrastructures dans un monde décarboné ? » Rapport final, octobre 2025.
[12] L. Welgryn et T. Alvès Da Costa, Op. cit.
[13] EDPB/EDPS, Joint Opinion 1/2026 on the Proposal for a Regulation as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI), 20 janv. 2026, pts 30 45 (critiques sur l’extension de l’intérêt légitime, le traitement de données sensibles et le report des obligations applicables aux systèmes d’IA à haut risque
[14] Programme pour l’environnement des Nations Unies, « L’IA pose un problème environnemental. Voici ce que le monde peut faire pour y remédier », 13 nov. 2025.












