L’AI Act : Réguler et investir dans l’éducation et le développement de champions européens

Dans cet article rédigé pour Confrontations Europe, Guy Jacquemelle, Conférencier et essayiste spécialiste des questions numériques revient sur l’état de la législation européenne en matière d’intelligence artificielle ainsi que sur les principaux points de l’Artificial Intelligence Act, présenté par la Commission européenne en 2021.

L’intelligence artificielle (IA) fait déjà partie du quotidien de centaines de millions d’humains (assistants vocaux, analyse d’images médicales, publicité en ligne, algorithmes de recommandation des réseaux sociaux, mise en avant automatique de produits …). Et pourtant, l’émergence très médiatique, fin 2022, de ChatGPT, le robot conversationnel de la firme OpenAI (basé sur une intelligence artificielle générative), a déclenché une onde de choc dans le monde politique, éducatif, industriel et dans le grand public… Selon un sondage de l’institut Odoxa, publié en juin 2023, 67 % des Français considèrent l’IA comme une menace (+ 14 points en quelques mois).

L’IA classée en 4 catégories selon la gravité des risques

a commission européenne n’a pas attendu cet épisode médiatique pour s’attaquer à la réglementation de l’Intelligence artificielle. Le projet de règlement de la Commission européenne sur l’IA a été proposé pour la première fois en avril 20211. Le texte visait à apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour ce futur règlement, les intelligences artificielles y sont classées en quatre catégories selon la gravité des risques qu’elles posent envers les citoyens, avec des garde-fous adaptés à chaque type : risque inacceptable, risque élevé, IA Générative, risque limité.

Il y a tout d’abord les systèmes aux risques inacceptables (manipulation cognitivo-comportementale, classement social, identification biométrique en temps réel et à distance, création de nouvelle vie biologique envisagée dans 20 ans, IA globale…). Sauf exceptions, ces applications seront interdites dans l’UE.

Puis viennent les systèmes qui présentent un risque élevé2. Ils concernent les infrastructures critiques, l’éducation, la formation professionnelle, le maintien de l’ordre, les services publics et privés jugés essentiels, la santé, les sujets de migration et de contrôle aux frontières, la justice, le marché du travail et la démocratie… Leur utilisation ne sera possible que si ces systèmes satisfont des critères spécifiques.

Vient ensuite l’IA générative, comme ChatGPT. Elle doit se conformer aux exigences de transparence : indiquer que son contenu provient d’une IA, ne pas générer de contenus illégaux ou de « fake news », publier des résumés des données protégées par le droit d’auteur…

La dernière catégorie (risque limité) concerne les systèmes devant respecter des exigences de transparence minimale qui permettront aux utilisateurs de prendre des décisions éclairées. Deux exemples sont donnés par l’UE : les jeux vidéo, avec l’IA pour animer les ennemis, ou encore les filtres contre le spam. Après avoir interagi avec ces applications, l’utilisateur peut alors décider s’il souhaite continuer à l’utiliser. C’est aux fournisseurs de ces systèmes d’opter pour la transparence, mais sans contraintes.

Étant donné que l’IA est une technologie en évolution rapide, la commission souhaite avoir une approche souple, permettant aux règles de s’adapter aux changements technologiques.

La Commission européenne espère clore les trilogues fin 2023

e 14 juin 2023, les députés européens ont adopté leur position de négociation sur la loi sur l’IA. Les pourparlers ont commencé avec les pays de l’UE au sein du Conseil sur la forme finale de la loi.

Des trilogues (réunions entre le Parlement européen, la Commission et le Conseil qui représente les Etats membres) ont déjà eu lieu et font apparaitre des dissensions entre les états membres. Le commissaire au marché intérieur, Thierry Breton, reste cependant optimiste et espère clore ces trilogues de l’AI Act fin 2023. Ce règlement sur l’IA pourrait être adopté en 2024. L’Europe serait ainsi le premier continent à avoir un règlement aussi horizontal et général.

Mais des voix se font entendre parmi les entreprises européennes. Il ne faudrait pas que ce nouveau règlement bride les innovations et les développements européens. Parmi ceux qui s’inquiètent de cette nouvelle réglementation, Arthur Mensch3, le fondateur de Mistral AI, une start-up ayant levé 105 millions d’euros pour fabriquer des modèles de traitement du langage concurrent de ceux des Américains Google, Meta ou Open AI. Il a déclaré cet été lors du salon VivaTech : « En l’état, la régulation a un risque fort de gêner l’innovation en Europe ». Emmanuel Macron, qui était présent sur scène, a abondé dans ce sens. Ces reproches ont été appuyés par une tribune signée par 150 chefs d’entreprise, scientifiques et personnalités de l’IA. L’AI Act est « susceptible de menacer la compétitivité et la souveraineté technologique de l’Europe », ont-ils écrit et signé dans Les Echos, le 30 juin.

On peut noter aussi que ce projet de règlement intervient dans un contexte d’empilement législatif au cours des trois dernières années. A chaque actualité technologique4, son nouvel « Act » : le DMA en réponse à l’hégémonie des Gafam, le DSA sur les plateformes digitales, NIS 2 pour la menace cyber, Chips Act face à la crise des semi-conducteurs, le MiCA sur le sujet des cryptoactifs, le Data Governance Act sur le partage des données, la réglementation Dora pour le secteur financier, le Data Act pour l’explosion d’objets connectés, et finalement cet AI Act.

Nos lois sont souvent décalées du temps technologique. L’AI Act, pensé à partir de 2021, tient compte de manière marginale de la vague ChatGPT et entrera en application dans un contexte où la technologie aura encore changé. Seule l’éthique à la source de l’IA et des algorithmes sera gage de générer des solutions à impact positif pour l’humanité. Tout développement devrait vérifier ce point en amont avant mise sur le marché de produits ou de services en lien avec l’IA.

Il sera donc nécessaire d’être très vigilant pour que ce futur règlement soit le plus souple, et le plus protecteur possible pour les citoyens, mais aussi qu’il ne bride pas les innovations, les entreprises et les start up européennes.

La réglementation ne suffira pas à nous faire revenir au niveau des Etats Unis et de la Chine, car, comme aiment à le rappeler certains : « Pendant que les Etats-Unis et la Chine innovent dans la technologie, l’UE innove dans la réglementation. »

Les pays européens doivent donc aussi investir dans l’éducation, aussi bien en collège et au lycée, que dans les universités, dans la formation professionnelle, les grandes écoles pour que les futurs élèves, étudiants et étudiantes, et citoyens et citoyennes apprennent et maitrisent ces nouvelles technologies. Non pas pour remplacer leur cerveau ou leur temps de cerveau, mais pour que l’IA devienne leur super conseillère.

Il faut aussi sortir de ce schéma réducteur qui consiste à mettre sans cesse en opposition, les nouvelles technologies et les humains, et construire une culture de la complémentarité entre les humains et l’IA. Apprenons à faire travailler les deux, ensemble, afin d’améliorer l’efficacité et la productivité dans de nombreuses secteurs.

Enfin un point capital sera aussi pour les états membres et pour la Commission européenne d’avoir des plans ambitieux dans la recherche et dans le développement dans tous les domaines prioritaires qui seront impactés par l’IA.

Ainsi dans un rapport publié en avril 2023, l’Institut Montaigne5 formule plusieurs recommandations pour que l’Europe et la France deviennent des puissances de l’IA « sûre et digne de confiance », c’est-à-dire basée sur des algorithmes non biaisés, fonctionnant sur des règles, et non des probabilités mathématiques, et intégrant l’éthique dès le lancement du projet.

Le think tank recommande un investissement de 1 milliard d’euros en Europe. Concrètement, l’IA devrait être érigée au rang de « projet important d’intérêt européen commun » (PIIEC), comme il en existe aujourd’hui dans la santé ou l’hydrogène. Un label qui permet d’assouplir la régulation sur les aides d’Etat et donc, à plusieurs pays, de soutenir des projets transnationaux.

Et pour réaliser ces projets d’intelligence artificielle, il sera nécessaire de disposer de supercalculateurs HPC6 (« high performance computing », ou « calcul haute performance informatique ») capables d’effectuer des milliards de milliards d’opérations par seconde (exaflops). C’est ainsi que l’Union européenne, un certain nombre de pays européens, et des partenaires privés ont créé dès 2020 une société commune EuroHPC, basée au Luxembourg. L’Union Européenne finance la moitié de ce projet : « L’objectif d’EuroHPC est de faire de l’Europe un leader mondial de la super-informatique et de renforcer l’autonomie numérique et la souveraineté européennes, en matière de HPC », ambitionne son directeur, Anders Dam Jensen.

Depuis juin 2020, EuroHPC se situe en troisième position du Top500 avec le superordinateur LUMI, installé en Finlande, derrière Frontier 2022 de HPE (Hewlett-Packard Enterprise, Etats-Unis), et Fugaku 2020 de Fujitsu (Japon). LUMI sera utilisé dans le cadre de travaux dans les domaines de la médecine et de la recherche sur le climat. « Il pourrait s’agir de la mise au point de vaccins, de diagnostics du cancer ou de l’atténuation du changement climatique, a déclaré la commissaire Margrethe Vestager. C’est un excellent exemple de l’énorme potentiel de l’intelligence artificielle pour améliorer nos vies. »

« L’Europe est un endroit merveilleux pour construire l’avenir du supercalcul et de l’IA », a écrit, fin juin 2023, Thierry Breton sur X (ex-Twitter). Les Etats-Unis et la Chine pensent la même chose. La bataille ne fait que commencer.

1. https://www.numerama.com/tech/706461-minime-a-inacceptable-leurope-definit-quatre-niveaux-de-risques-pour-lia.html

2. https://www.europarl.europa.eu/news/fr/headlines/society/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle

3. https://www.lemonde.fr/economie/article/2023/07/18/intelligence-artificielle-negociations-tendues-autour-du-projet-de-reglement-europeen-ai-act_6182460_3234.html

4. https://www.lesechos.fr/idees-debats/cercle/opinion-ia-le-coup-de-frein-de-la-reglementation-europeenne-1970807

5. https://www.lesechos.fr/tech-medias/intelligence-artificielle/ia-linstitut-montaigne-recommande-1-milliard-deuros-dinvestissement-en-europe-1935984

6. https://www.lemonde.fr/economie/article/2023/09/11/le-retour-de-la-course-aux-supercalculateurs-entre-etats-unis-chine-et-europe_6188810_3234.html

Derniers articles

Articles liés

Leave a reply

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici