LITUANIE – Une nouvelle ère ? Les revendications de l’UE pour exercer son influence dans la compétition géopolitique sur l’IA

Par JustiAnas Lingevičius, Doctorant à l’Université de Vilnius, Institut des Relations internationales et des Sciences politiques

English version below

Après l’adoption officielle du règlement sur l’IA en mars 2024, la Présidente de la Commission, Ursula von der Leyen, a déclaré que « le règlement sur l’IA de l’UE est le premier cadre juridique complet sur l’intelligence artificielle au monde. C’est un moment historique. Le règlement sur l’IA transpose les valeurs européennes dans une nouvelle ère ». Ainsi, la politique émergente de l’UE en matière d’IA a été présentée, non seulement comme une initiative politique supplémentaire de la décennie numérique, le cadre de l’UE vers la numérisation d’ici 2030, mais aussi comme un point de référence de la techno-politique européenne, une nouvelle ère. Et l’UE désire y exercer son influence. Un tel potentiel d’influence n’est pas venu de nulle part.

Le cas de l’IA a été construit sur la success story du Règlement général sur la protection des données (RGPD) de l’UE, considéré comme une preuve que « l’UE est capable d’établir des règles ayant un impact sur l’économie numérique à l’échelle mondiale ». Cela a même été qualifié d’« effet Bruxelles » – pour exporter la réglementation adoptée par l’UE vers les marchés mondiaux. Il n’est donc pas surprenant que les dirigeants des institutions de l’UE aient saisi l’occasion de revendiquer ce moment historique en supposant qu’être pionnier de la législation sur l’IA incitera d’autres à suivre le mouvement.

Cependant, contrairement au RGPD qui est apparu comme une nouveauté en 2016, l’IA a déjà été une question de concurrence où différents acteurs étatiques, internationaux et corporatistes ont proposé leurs approches et visent également à influencer les normes futures en matière d’IA de manière préférentielle, ce qui signifie que la compétition est bien plus complexe qu’auparavant. Par conséquent, l’UE se retrouve dans la géopolitique de l’IA et de sa gouvernance. Sa propre réponse et proposition à cela : le règlement sur l’IA déjà mentionné, basé sur l’« approche axée sur les droits, qui plaide en faveur de règles convenues, de valeurs démocratiques libérales et de coopération multilatérale.

En établissant différentes catégories de risques, le règlement sur l’IA suggère que nous devons examiner les cas d’utilisation de l’IA : interdire ceux qui sont inacceptables au regard des valeurs européennes, et surveiller strictement et réglementer ceux qui pourraient porter atteinte aux droits fondamentaux. De cette manière, la sécurité, la transparence et la fiabilité devraient être garanties comme une assurance que l’IA ne sera pas utilisée à des fins malveillantes contre les citoyens européens.

La Commission européenne sortante placera certainement le « coup de tampon » à l’adoption du règlement sur l’IA comme l’une des principales réalisations dans le domaine des politiques numériques au cours de ce mandat.

« La sécurité, la transparence et la fiabilité devraient être garanties comme une assurance que l’ia ne sera pas utilisée à des fins malveillantes contre les citoyens européens »

Cependant, étant donné que les développements en matière d’IA pourraient être considérés comme une « cible mouvante », en raison des améliorations constantes et des nouvelles applications, la phase de mise en œuvre ne sera pas moins éprouvante. Comment ces règles convenues et adoptées fonctionneront-elles, comment les concepts introduits, tels que le centrisme humain et l’IA digne de confiance, seront-ils mis en pratique, et surtout, quelles seront les erreurs et les succès qui émergeront comme des leçons et des percées ? Par conséquent, les leçons apprises pourraient devenir même des arguments plus importants pour l’influence que l’adoption des règles. De plus, la temporalité joue également un grand rôle dans ces considérations. Lorsque la Commission européenne a publié sa proposition initiale de règlement sur l’IA en avril 2021, une telle accessibilité généralisée de ChatGPT n’était pas à l’horizon. Bien que les architectes du règlement sur l’IA prétendent qu’il s’agit d’une législation à l’épreuve du futur et laisse suffisamment de marge de manœuvre pour l’avenir, il est peu probable que de telles affirmations ne soient pas contestées par de nouvelles formes et des percées en matière d’IA. Par conséquent, la résilience et l’adaptabilité pourraient devenir un autre argument pour revendiquer les règles de l’UE et l’approche globale comme un terrain d’entente potentiellement attrayant pour les autres également. Bien que l’UE ait déjà suscité beaucoup d’intérêt et vise à établir des partenariats numériques avec des partenaires partageant les mêmes idées, la question de savoir si d’autres suivront cet exemple n’est pas sans raison. Des positions différentes sont déjà perceptibles également : par exemple, malgré l’introduction du Conseil commercial et technologique UE-États-Unis en 2021 pour aligner les points de vue, les visions sur la gouvernance de l’IA entre l’UE et les États-Unis soulignent des priorités différentes. Comme mentionné, pour l’UE, il s’agit d’établir une réglementation sur les utilisations de l’IA, qui doivent répondre aux valeurs européennes et respecter les droits fondamentaux. Alors que les États-Unis restent flexibles sur le marché et se concentrent sur des comportements volontaires et des accords avec les entreprises, plutôt que d’établir une réglementation contraignante. De plus, la différence significative entre les deux – des documents stratégiques suggèrent que les États-Unis accordent une grande priorité aux questions de sécurité et militaires de l’IA et construisent également leur réflexion sur cela. Alors que le règlement sur l’IA de l’UE exclut l’élément militaire du champ politique et le place dans le domaine du marché unique.

En regardant vers l’avenir, cette exclusion pourrait devenir l’une des limitations importantes des efforts de l’UE pour imposer le ton à l’échelle internationale. Bien sûr, dans le cas de l’UE, cela renvoie toujours au point des compétences partagées, où les questions militaires et de sécurité sont considérées comme exclusivement disposées par les États membres.

Par conséquent, le règlement sur l’IA est présenté comme représentant le mandat donné à la Commission européenne et la base légale du marché unique. Cependant, les pratiques récentes – le Fonds européen de défense, la Base technologique et industrielle de défense de l’UE et le Panel mondial de la technologie – suggèrent que l’ambition de la Commission géopolitique se traduise également par une plus grande proactivité dans l’approche des technologies dans le cadre des questions de défense et de sécurité. Deuxièmement, l’évolution de l’environnement international et l’invasion par la Russie de l’Ukraine obligent également à reconsidérer le rôle des technologies émergentes, y compris l’IA, pour la sécurité. L’expérience ukrainienne et les solutions technologiques déjà en évolution sur le champ de bataille suggèrent la participation d’entreprises privées testant leurs applications, le rôle de l’IA et la militarisation des technologies à double usage, telles que les drones. Par conséquent, l’UE sera inévitablement contestée pour élaborer une approche plus globale de l’IA militaire. La « Boussole stratégique » de l’UE pour la sécurité et la défense et la « Stratégie industrielle européenne de défense » publiées par la Commission européenne suggèrent que l’UE réagit aux défis sécuritaires et discute de l’intégration de la défense au niveau de l’UE, droits humains, de la transparence ou de l’engagement multilatéral ne semblent pas s’opposer à des points de vue plus stratégiques.

« Il s’agit d’établir une réglementation sur les utilisations de l’ia, qui doivent répondre aux valeurs européennes. »

La situation sécuritaire actuelle en Europe soulève un autre point de temporalité où l’évolution de l’environnement international et régional suggère une pertinence croissante des technologies émergentes, y compris l’IA. Comme mentionné précédemment, l’UE discute déjà de l’étendue de l’intégration de la défense et dépasse les tabous existants selon lesquels le militaire et la sécurité ne font pas partie d’un « mandat » du projet de paix. Par conséquent, la décision d’exclure le domaine militaire du champ d’application de la politique en matière d’IA pourrait être reconsidérée pour élaborer un aperçu plus complet des enjeux. Encore une fois, cela n’est pas totalement nouveau pour l’UE, sachant que l’Agence européenne de défense et la Direction générale de l’industrie de la défense et de l’espace ont lancé et soutenu divers programmes de R&D et instruments liés à l’IA militaire. Étant donné la nature à double usage de l’IA, une telle conversation semble inévitable et apporterait encore plus d’ouverture et de levier à l’échelle internationale, où l’IA militaire est déjà proposée par les États-Unis, la Chine et même les grandes entreprises technologiques. Enfin, cela démontrerait la préparation pour cette nouvelle ère, qui se révèle malheureusement moins sécurisée et plus compétitive.

CONFRONTATION-EUROPE-138-210×297-WEB-48-51

LITHUANIA – A NEW ERA? EU’S CLAIMS TO EXERT INFLUENCE IN GEOPOLITICAL COMPETITION ON AI

By Justinas Lingevicius, PhD candidate, Vilnius University, Institute of International Relations, and Political Science

    After official adoption of the Regulation AI Act in March 2024, Commission President Ursula von der Leyen stated that ‘The EU’s AI Act is the first-ever comprehensive legal framework on Artificial Intelligence world-

wide. So, this is a historic moment. The AI Act transposes European values to a new era’(1). Thus, the emerging EU AI policy has been presented as not just another policy initiative of the Digital Decade, the EU framework towards digitalisation by 2030, but also as a defining point of European techno-politics, a new era. And the EU desires to be influential in it.

A potential of such influence has not come from vacuum. The case of AI has been built on a success story of the EU’s General Data Protection Regulation (GDPR), seen as a prove that ‘the EU is capable of setting rules impacting the digital economy globally’(2). This has even been titled as the ‘Brussels effect’ – to export EU adopted regulation to global markets(3). No surprise that the leaders of the EU institutions have used the opportunity to claim the moment of history here presuming that being a pioneer of the AI legislation will push others to follow the lead. However, differently from GDPR which came as a novelty in 2016, AI has already been a matter of competition where different state, international and corporate actors have been proposing their approaches and similarly aiming to influence future AI standards in preferred ways, meaning that the contest is far more complex than before.

    Therefore, the EU finds itself in the geopolitics of AI and its governance. Its own response and proposal to that – the already mentioned AI Act based on the ‘rights-driven approach’ arguing for agreed rules, liberal democratic values, and multilateral cooperation(4). By establishing different categories of risks, the AI Act suggests that we need to investigate use cases of AI: prohibit those that are unacceptable in terms of the European values and strictly monitor and regulate those that might cause harm to fundamental rights. In this way, safety, transparency, and trust worthiness should be guaranteed as reassurance that AI will not be employed for malicious actions against European citizens. 

    The outgoing European Commission will certain place the ‘tick’ to the adoption of the AI Act as one of the major achievements in the field of digital policies during this term. However, as AI developments could be considered as ‘moving target’ due to constant improvements and new applications, the implementation phase will not be less testing.

How these agreed and adopted rules will work, how introduced concepts such as human-centrism and trustworthy AI will be turned into practices,   not the least – what mistakes and successes will emerge as lessons and breakthroughs. Therefore, lessons learned might become even more important arguments for influence than the adoption of the rules.

   Also, temporality plays a big part in these considerations as well. When the European Commission released its initial Proposal for Regulation the AI Act back in April 2021, such a widespread accessibility of ChatGPT was not on a horizon. Though the architects of the AI Act claim that it is the future-proof piece of legislation and leaves enough room for maneuvering in the future, there is little doubt that such claims will not be challenged by new forms and breakthroughs in AI. Therefore, resilience and adaptability might become another argument to claim EU rules and over all approach as common ground potentially attractive to others as well.

    Though the EU has already received a lot of interest and aims to build digital partnerships with like-minded, the question on others following this example is not without a reason. Differing positions are already noticeable as well: fir instance, despite introducing the EU- US Trade and Technology Council in 2021 to align views, visions on AI governance between the EU and the US stress different priorities. As mentioned, for the EU it is about establishing regulation on uses of AI which are required to meet European values and respect fundamental rights. Where the US remains market- flexible and focused on voluntary conducts and agreements with businesses rather than setting binding regulation. Also, the other significant difference between the two – strategic documents suggest that the US highly prioritizes the security and military matters of AI and builds its thinking on that as well. While the EU’s AI Act excludes the military element from the policy scope and places it within the field of single market.

    Looking ahead, this exclusion could be- come one of the important limitations of the EU efforts to set the tone internationally. Of course, in the case of the EU this always bounces back to the point of shared competences where military and security matters are put as exclusively disposed by member states. Therefore, the AI Act is presented

as representing the given mandate to the European Commission and the legal basis of single market. However, recent practices – the European Defence Fund, the EU Defence Technological and Industrial Base and the Global Tech Panel – suggest that the ambition of geopolitical Commission also comes with more proactiveness in approaching tech strengthen its voice internationally where advocating for respect to human rights, transparency or multilateral engagement does not seem to be opposing to more strategic views. The current security situation in Europe brings another point of temporality where the changing international and regional environment suggests increasing relevance of emerging technologies including AI. As mentioned, the EU has been already discussing the extent of defence integration and moving beyond existing taboos that military and security is not a part of a ‘mandate’ of the peace project. Therefore, the decision to exclude the military realm from the AI policy scope could be reconsidered to come up with a more comnologies through the lens of defence and security matters as well.

    Secondly, the changing internation- al environment and the Russia’s invasion to Ukraine also challenges to reconsider the role of emerging technologies including AI for security.

Ukrainian experience and already evolving technological solutions in the battlefield suggest the involvement of private companies testing their

applications, AI enabling role and weaponisation of dual use technologies such as drones. Therefore, The EU will inevitably be contested to come up with a more comprehensive approach towards military AI. The EU Strategic Compass for Security and Defence and the European Defence Industrial Strategy released by the European Commission suggests that the EU reacts to security challenges and discusses EU-level defence integration where technologies are also involved.

      Therefore, after adopting the AI Act, the EU should consider moving from a fragmented debate towards a more articulated position on AI in the military realm.  prehensive outline of issues at stake. Again, this is not completely new for the EU knowing that the European Defence Agency and Directorate-General for Defence Industry and Space have been initiating and supporting various R&D programs and instruments related to military AI. Given the dual use nature of AI, such a conversation seems to be inevitable and would bring even more openness and

leverage internation- ally where military AI is already brought by

This would even the US, China and even Big Tech companies. Finally, it would demonstrate readiness for this new era which unfortunately turns out to be less secure and more competitive. 

“In this way, safety, transparency, and trust worthiness should

be guaranteed as reassurance that ai will no? be employed for malicious actions against european citizens.”

“…it is about establishing regulation on uses of ai which are required to meet European values and respect fundamental rights…”

(1) European Commission. 2023. ‘Statement by President von der Leyen on the political agreement on the EU AI Act’. Available at: https://ec.europa.eu/commission/presscorner/detail/en/

statement_23_6474.

(2) Cervi, G.V. Why and How Does the EU Rule Global Digital

Policy: An Empirical Analysis of EU Regulatory Influence in Data Protection Laws. DISO 1, 18 (2022). https://doi.org/10.1007/ s44206-022-00005-3

(3) Bradford, Anu. 2019. The Brussels effect. How the European

Union Rules the World. Oxford University Press.

(4) Bradford, Anu. 2023. Digital Empires. The Global Battle to Regulate Technology. Oxford University Press.

a-new-era-eu-s-claims-to-exert-influence-in-geopolitical-competition-on-ai

Derniers articles

Articles liés

Leave a reply

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici