Un Texte à la Mesure de l’Industrie Tech
Réunis au sein du Conseil de l’Union européenne, les États-membres ont définitivement adopté le règlement IA. Cet édifice législatif, en discussion depuis 2021, promettait initialement de protéger les droits et libertés face à l’expansion de l’Intelligence Artificielle (IA). Toutefois, le résultat final semble favoriser davantage l’industrie technologique, les forces de police européennes et les bureaucraties désireuses d’automatiser le contrôle social.
Des Promesses Initiales Évaporées
En avril 2021, la Commission européenne avait présenté ce règlement comme une initiative pour contrôler l’usage de l’IA, incluant un moratoire sur certaines applications controversées, notamment la reconnaissance faciale. Cependant, après deux ans de négociations et de pressions des gouvernements des États-membres, notamment de la France, le texte final s’est éloigné de ces promesses initiales. Le règlement privilégie désormais l’auto-régulation, bourré de dérogations, et semble incapable de protéger efficacement les droits fondamentaux face à l’IA.
L’Approche Par les Risques
Le règlement IA est basé sur une approche par les risques, classifiant les systèmes d’IA en quatre catégories : faible, limité, élevé et inacceptable. Pourtant, cette classification laisse une large marge de manœuvre aux entreprises pour décider du niveau de risque de leurs produits, facilitant ainsi une régulation laxiste. En effet, la première évaluation des risques incombe aux concepteurs eux-mêmes (article 43), souvent aboutissant à des jugements de non-risque, exemptant ainsi ces systèmes de toute régulation stricte.
La France en Première Ligne
Le gouvernement français, sous la houlette d’Emmanuel Macron, a joué un rôle clé dans la promotion de ce règlement. Dans le cadre de la stratégie de la « Startup Nation », la France vise à attirer les capitaux étrangers et à favoriser l’innovation, souvent au détriment des conflits d’intérêts potentiels et de la corruption. Le projet de loi « simplification de la vie économique » s’inscrit dans cette lignée, facilitant notamment la construction de data centers et favorisant des géants comme Microsoft, qui investit massivement en France.
Les Dérogations Multiples
Les dérogations prévues par le règlement affaiblissent davantage les protections. Par exemple, l’article 5 interdit l’utilisation de systèmes d’identification biométrique en temps réel, mais autorise des exceptions pour des raisons de sécurité ou de recherche scientifique. Les systèmes de surveillance comme la reconnaissance faciale en temps réel peuvent ainsi être utilisés pour prévenir des menaces terroristes ou retrouver des personnes disparues, ouvrant la porte à des abus potentiels.
Un Encadrement Insuffisant pour la Police Prédictive
Les systèmes d’IA à haut risque, tels que la police prédictive, sont soumis à des obligations de transparence et de gouvernance des données. Cependant, ces mesures sont souvent limitées. Par exemple, les forces de l’ordre ne sont pas tenues de publier les études d’impact de leurs systèmes d’IA, et les dérogations multiples permettent de contourner les obligations de transparence.
Impact Environnemental et Greenwashing
Le règlement IA inclut des déclarations d’intention sur le développement durable et l’impact environnemental des systèmes d’IA. Pourtant, les mesures concrètes restent superficielles. Les concepteurs doivent fournir des informations sur la consommation d’énergie, mais les contrôles restent minimes. Cette approche renforce la perception que l’IA, malgré ses promesses de durabilité, contribue davantage à l’épuisement des ressources et à la consommation énergétique.
Vers une Acceptabilité Sociale de l’IA
L’objectif sous-jacent du règlement IA est de renforcer l’acceptabilité sociale de l’IA pour faciliter son adoption. Les règles visent à rassurer le public sur les mesures de transparence et de protection des données, mais en réalité, elles favorisent la prolifération des technologies de surveillance et de contrôle social.