Le règlement sur l’intelligence artificielle (AI Act)

© European Union 2023 – Source : EP – Mathieu CUGNOT

Notre monde est aujourd’hui bouleversé par le développement des intelligences artificielles (IA ou AI en anglais). Ces logiciels et machines capables de concurrencer l’intelligence humaine ont connu un développement fulgurant ces dernières années.

Si à l’origine, les logiciels de reconnaissance vocale tels que Siri étaient les principales formes d’IA utilisées par le grand public, aujourd’hui d’autres acteurs font leur apparition. Les logiciels de conversation (ou chatbot) par exemple, ont pénétré le quotidien. ChatGPT, le plus célèbre de ces chatbots est largement utilisé par des étudiants soit pour les aider à réaliser des travaux, voire pour que le logiciel effectue ledit travail à leur place. Certains logiciels de génération d’images tels que Midjourney interrogent, eux, notre rapport classique à la propriété intellectuelle et aux droits d’auteurs. On peut également évoquer les « deepfake » : des vidéos créées avec l’aide d’IA qui sont particulièrement réalistes et permettent une manipulation de l’image et du son à un niveau encore jamais atteint auparavant.

Malgré l’importance grandissante des intelligences artificielles dans notre société, aucun pays n’a encore pris des mesures de régulation claires et compréhensibles afin d’empêcher les dérives des IA.

Or, le mardi 14 juin 2022, le parlement européen a adopté une proposition de règlement novatrice en matière d’intelligence artificielle à une très large majorité (499 pour, 28 contres et 93 abstentions). Le texte, baptisé « AI Act », s’inscrit dans une politique plus large de développement du numérique partout en Europe, selon la volonté de la Commission Von der Leyen.

Ce règlement, le premier au monde régulant les IA, repose sur une distinction majeure des intelligences artificielles selon une échelle de risque. Le niveau de risque que représentent lesdites IA permettra de les différencier selon quatre catégories.

Tout d’abord le niveau de risque « inacceptable ». Toute intelligence artificielle présentant un risque dit inacceptable sera strictement prohibée. Parmi les IA qualifiées de telles, on peut notamment citer l’essentiel des systèmes de reconnaissance biométriques en temps réel. L’utilisation de ces systèmes de reconnaissance sera rigoureusement interdite, sauf dans des circonstances précises telles que la recherche d’un enfant disparu, d’un agent terroriste susceptible de passer à l’acte ou encore afin de retrouver des criminels en fuite.

Assez largement, cette interdiction s’adresse notamment aux logiciels de détection des émotions et de classification ou de prédiction du comportement, tels qu’ils sont utilisés par des régimes autoritaires comme en République populaire de Chine.

Le deuxième niveau de risque concerne les IA présentant un « haut risque ». Ces intelligences artificielles sont celles qui touchent à des secteurs clefs tels que les infrastructures, le transport, la santé, l’éducation, la justice, les ressources humaines ou le maintien de l’ordre. Les IA à « haut risque » devront se soumettre à des exigences de transparence, de traçabilité et de contrôle humain suffisantes afin d’être utilisées.

Le niveau de risque en deçà, c’est-à-dire les IA présentant un « risque limité », impose au système une obligation de transparence. Par exemple, pour l’utilisation d’un logiciel de conversation (ou « chatbot ») l’utilisateur devra obligatoirement être informé qu’il communique avec une IA.

Enfin, les IA représentant un « risque minimal » pourront être librement commercialisées. L’essentiel des IA actuellement usitées dans l’UE appartient à cette catégorie comme les IA utilisées pour les jeux vidéo ou encore les réfrigérateurs et les montres connectées.

La Commission a exprimé sa volonté de mettre à jour régulièrement cette législation une fois qu’elle sera effective afin de la rendre durable malgré la rapidité des évolutions dans ce domaine. De plus, une agence de l’Union européenne chargée des intelligences artificielles devrait voir le jour et serait dédiée à la surveillance de ce secteur.

Bien que le texte final doive encore être négocié, certaines critiques se font déjà entendre. Des entreprises privées notamment ont fait valoir que le trop plein de régulation apporté par ce règlement à un secteur en pleine croissance risque de brider le développement des intelligences artificielles en Europe.

Répondre