Accélérer, quoi qu’il en coûte

C’est le résultat du sommet de Paris sur l’IA

Le sommet de Paris sur l’intelligence artificielle (IA) organisé par la France s’est tenu les 10 et 11 février 2025. Il restera dans l’histoire comme un grand moment d’accélération.

** **

Quatre documents de « la quadrature du net » :

https://www.laquadrature.net

Lancement de la coalition Hiatus, pour résister à l’IA et son monde !

L’IA telle qu’elle est développée alimente un système d’exploitation global

Sommet de Paris sur l’IA : accélérer, quoi qu’il en coûte

VSA jusqu’en 2027 : quand le gouvernement ose tout

** **

 Alors que la société civile s’organise, notamment au travers de la coalition Hiatus lancée à l’initiative de La Quadrature du Net, afin de résister au déferlement de l’intelligence artificielle, l’Europe engage une fuite en avant qui, dans le contexte actuel, risque de nous précipiter vers une sorte de techno-fascisme. Emmanuel Macron l’affirmait encore lundi en conclusion de la première journée : « On veut accélérer, on veut réduire l’écart ». Mais accélérer quoi, au juste ?

D’abord, accélérer les déploiements de l’IA dans les services publics, et partout dans la société. Les annonces dans ce domaine se sont succédées ces derniers jours : santé, armées, éducation, France Travail… Prolongeant les politiques de dématérialisation menées depuis vingt ans dans une pure logique de rationalisation des coûts, l’IA permettra d’automatiser des pans entiers de l’action publique. Pièce maîtresse de la plupart de ces partenariats, l’entreprise Mistral AI est présentée comme la garantie de la souveraineté technologique française et européenne, et ce en dépit de la présence en nombre d’acteurs étasuniens à son capital, dont des soutiens actifs de Donald Trump comme Marc Andreessen et Ben Horowitz.

Il s’agit ensuite d’accélérer les investissements. Alors que parlement français vient d’entériner le budget le plus austéritaire depuis vingt-cinq ans, les milliards d’argent public et privé pleuvent pour l’IA, en particuliers pour les data centers. François Bayrou a ainsi annoncé 400 millions d’euros de subventions pour que trente-cinq de ces bâtiments industriels sortent de terre, tandis que BPIfrance investira 10 milliards dans l’IA. Sans compter les 109 milliards de capitaux privés dont il fut beaucoup question, dont 50 milliards d’euros investis par les Émirats Arabes Unis pour un « data center géant » et 20 milliards abondés par le fonds canadien Brookfield pour un projet du même type. La puissance de calcul est désormais un actif de choix pour les spéculateurs de la tech, accueillis à bras ouvert par la France.

Peu importe que ces immenses entrepôts à serveurs fassent d’ores et déjà l’objet de contestations à travers le pays en raison des conflits d’usage qu’ils suscitent. À Marseille, leur explosion ces dernières années a par exemple conduit à remettre à plus tard l’électrification des quais où accostent les bateaux de croisières, lesquels continuent de recracher leurs fumées toxiques dans le quartier de Saint-Antoine. Mais avec Emmanuel Macron comme VRP, la France choisit d’écarter d’un revers de main ces oppositions. Elle fait de sa politique de relance du nucléaire un atout « bas carbone », quitte à passer sous silence les dangers et les immenses inconnues qui entourent ces programmes.

Une autre grande accélération est celle des politiques de dérégulation. Alors que Donald Trump s’est empressé d’annuler les quelques règles relatives à l’IA édictées par l’administration Biden, Emmanuel Macron et Ursula Von der Leyen semblent à leur tour décidés à rogner les quelques principes posés par le « AI Act » tout juste adopté par l’Union européenne. Le chef d’État français fait sien le mantra de la disruption : « Si on régule avant d’innover, on se coupera de l’innovation ». Peu importe que l’AI Act – bardé d’exceptions et s’assimilant pour l’essentiel à un système d’auto-régulation sous la coupe des industriels – ait été dénoncé par les associations. Face à l’injonction de déployer massivement l’IA dans la société, les droits humains en sont pour leurs frais. Le vice-président étasunien, le techno-réactionnaire JD Vance, n’a pas caché sa satisfaction : « Je suis content de voir qu’un parfum de dérégulation se fait sentir dans nombre de discussions », a-t-il déclaré lors de son allocution.

S’il y a bien un domaine où ces politiques de dérégulation sont particulièrement attendues, c’est celui des data centers. « J’ai bien reçu le message des investisseurs », a ainsi lancé Emmanuel Macron en promettant de « simplifier les procédures ». Une promesse déjà traduite au plan législatif, notamment avec le projet de loi relatif à la simplification de la vie économique. En cours d’examen à l’Assemblée nationale, il vise à contourner les règles locales d’urbanisme ou celles relatives à la protection de l’environnement. Quant aux demandes de la Commission nationale du débat public d’être saisie lors de la construction de ces infrastructures énergivores, elles se heurtent à la volonté de l’État d’exclure l’instance d’un nombre croissant de projets industriels. L’IA, par ailleurs imposée dans le monde du travail au mépris des règles élémentaires du dialogue social, se paie d’un déni de démocratie toujours plus assumé.

Lors du sommet, les allusions convenues en faveur d’une intelligence artificielle « humaniste » n’auront trompé personne. Les dirigeants européens prétendent tracer une alternative tout en s’engageant dans une rivalité mimétique avec la Chine et les États-Unis – un « en même temps » aux avant-goûts de techno-fascisme. Ils nous enferment ce faisant dans fuite en avant technologique complètement insoutenable sur le plan écologique, mais aussi politiquement désastreuse. Accélérer, quoi qu’il en coûte. Quitte à foncer dans le mur.

la quadrature du net

** **

La surveillance et les libertés, grandes oubliées du sommet sur l’IA

Mediapart fait le point avec la professeure de droit public Lucie Cluzel-Métayer et la chargée de plaidoyer d’Amnesty International Katia Roux sur les technologies de surveillance algorithmique existantes et sur le droit les encadrant.

Une thématique était quasiment absente des cinq « thèmes essentiels » retenus par le sommet de l’intelligence artificielle (IA) qui s’est tenu du 6 février au 11 février à Paris : la protection des libertés. Le sujet est pourtant d’une actualité brûlante. Cela fait plusieurs années qu’un peu partout en France et ailleurs dans le monde, des villes se dotent de dispositifs de surveillance dits « intelligents », « algorithmiques » ou « augmentés ».

À l’été 2024, à l’occasion des Jeux olympiques et paralympiques de Paris, le gouvernement a mené une première expérimentation à grande échelle de « vidéosurveillance algorithmique », laissant craindre aux associations qu’il ne s’agisse là d’un premier pas vers une banalisation. Et, en effet, certains, à peine les Jeux terminés, demandaient la pérennisation de l’expérimentation. Mardi 11 février, dans le cadre de l’examen de la loi pour la sécurité dans les transports, les député·es ont adopté un amendement prorogeant celle-ci jusqu’en 2027. Une disposition qui doit encore être confirmée en commission mixte paritaire au moment de la publication de cet article.

Ces débats animent également les tribunaux administratifs, où ces dispositifs sont régulièrement contestés. L’association de défense des libertés La Quadrature du Net recense ainsi, dans son projet « Technopolice », les multiples projets de collectivités territoriales visant à installer des dispositifs de surveillance algorithmique. Ces installations, souvent faites au nom d’une « expérimentation », s’avèrent souvent illégales.

L’association a récemment remporté une bataille importante devant la justice administrative. La reconnaissance faciale en temps réel, consistant à identifier et à suivre une personne « en direct », est interdite en dehors d’un texte de loi l’autorisant expressément. En revanche, des débats persistent quant à son utilisation « en différé », c’est-à-dire pour analyser les images a posteriori.

Or, plusieurs municipalités utilisent des logiciels offrant cette possibilité, notamment celui proposé par la société Briefcam. Après plusieurs années de bataille juridique, La Quadrature du Net a obtenu, dans une décision rendue publique vendredi 31 janvier par le tribunal administratif de Grenoble, la première reconnaissance de l’illégalité de ce dispositif. « Une victoire sans précédent » pour l’association, mais qui devra être confirmée par d’autres décisions.

La Commission nationale de l’informatique et des libertés (Cnil) a également déjà affirmé, en octobre 2019, l’illégalité d’un projet d’installation de portiques biométriques à l’entrée de deux lycées de Nice et de Marseille. Le même mois, la Cnil adressait un avertissement à la métropole de Saint-Étienne pour avoir développé un système de micros censé analyser les sons pour repérer d’éventuels incidents. Un dispositif d’audiosurveillance similaire déployé par la ville d’Orléans a encore été jugé illégal par la commission au mois de septembre 2023.

Pour faire le point sur ce que permettent ces technologies, les dangers qu’elles emportent pour les droits humains et les garanties apportées par la législation, Mediapart a interrogé Katia Roux, chargée de plaidoyer à Amnesty International, et Lucie Cluzel-Métayer, professeure de droit public à l’université de Nanterre, spécialisée dans le droit du numérique et autrice d’un ouvrage sur le droit et l’intelligence artificielle à paraître aux éditions Dalloz.

Mediapart : Les dispositifs de surveillance « intelligents » se multiplient en France. Que penser des technologies déjà déployées ?

Katia Roux : En matière de surveillance policière, les débats tournent beaucoup autour de technologies qui permettent d’identifier les personnes, de les suivre dans l’espace public ou encore d’anticiper des comportements. La principale est la vidéosurveillance algorithmique, qui a été utilisée ces dernières années dans une certaine opacité. La loi JO a légalisé cette technologie, mais uniquement à titre expérimental. Mais les municipalités et les pouvoirs publics n’ont pas attendu la loi JO pour déployer ces technologies. 

Lucie Cluzel : Beaucoup de ces technologies ont été introduites sous couvert d’expérimentation et sont désormais en passe d’être généralisées, comme la vidéosurveillance algorithmique. Mais ce n’est pas la seule, et certaines de ces expérimentations sont assez peu connues. C’est par exemple le cas du projet iBorderCtrl, financé par l’Union européenne. Il s’agit d’un système de contrôle biométrique fonctionnant comme un détecteur de mensonges. Il a été installé aux frontières de l’espace Schengen, en Grèce, en Hongrie et en Lettonie. 

Outre cette surveillance policière, l’IA est également de plus en plus utilisée par l’État dans un but de contrôle social. C’est une IA qui fonctionne de manière assez opaque et dont certaines études montrent qu’elle présente des biais discriminatoires, car cet algorithme cible les populations les plus précaires, qui sont du coup doublement pénalisées.

Le sommet de Paris s’est ouvert quatre jours après l’entrée en vigueur d’un texte européen aux origines ambitieuses : l’AI Act. Pensez-vous qu’il reste des failles dans cette réglementation ?

Lucie Cluzel-Métayer : Il faut quand même souligner que c’est en Europe que l’on a adopté les premières règles contraignantes sur l’IA. Il faut reconnaître que nous sommes à l’avant-garde du droit sur l’intelligence artificielle. 

Le règlement européen sur l’IA et la convention-cadre sur l’IA du Conseil de l’Europe sont des textes qui mettent en place un régime juridique, c’est-à-dire des règles contraignantes variant en fonction des risques de l’IA pour la santé, pour la sécurité et pour les droits fondamentaux des personnes… Plus l’IA va présenter des risques, plus les règles vont être dures et contraignantes, avec des obligations de transparence, de contrôle des contenus, de sécurité, de robustesse, etc.

La sécurité nationale fait partie des domaines les plus problématiques en matière de droits humains. Katia Roux, chargée de plaidoyer à Amnesty International

Katia Roux : Ce texte représentait une opportunité de tracer de véritables lignes rouges vis-à-vis des technologies incompatibles avec les droits humains et de fixer des obligations pour celles qui sont à risque. Mais il a fait l’objet d’un compromis politique fin 2023, au cours duquel les États membres se sont ménagé des failles et des exceptions dans le texte qui l’affaiblissent du point de vue des protections des droits humains. 

Les pratiques qui nous semblent les plus risquées, c’est-à-dire les technologies de reconnaissance biométrique à distance, de notation sociale, de catégorisation biométrique, de police prédictive, rentrent bien dans la catégorie des interdictions. Mais plusieurs exceptions ont été introduites dans le texte qui, pour finir, laissent la possibilité aux États de les déployer dans certaines circonstances.

Par exemple, la reconnaissance faciale en temps réel – contrairement à la reconnaissance faciale a posteriori qui n’a pas été considérée comme suffisamment dangereuse – a été interdite, mais avec une exception liée au domaine de la sécurité nationale. Or, la sécurité nationale fait partie des domaines les plus problématiques en matière de droits humains.

Est-on allé trop loin dans les exceptions ?

Lucie Cluzel-Métayer : Oui. Par exemple, pour l’IA de « justice prédictive », le règlement explique bien qu’un tel usage est interdit… sauf si cette IA ne sert que d’aide à la décision humaine. Mais comment déterminer que l’IA n’est qu’une aide ? Quand l’humain suit aveuglément la solution proposée par la machine, est-ce toujours une simple aide ?

Katia Roux : L’autre grosse faille du texte, de notre point de vue, c’est tout ce qui touche aux systèmes dits « à haut risque ». Ceux-ci doivent être consignés dans une base de données avec des obligations de transparence et d’information sur leur finalité, leur développement, leur utilisation, etc. Or, les acteurs privés ont obtenu de pouvoir eux-mêmes évaluer leurs propres produits. 

Lucie Cluzel-Métayer : Un opérateur pourra dire : « Moi, finalement, cette IA, je la qualifie de non risquée, donc je considère que je n’ai pas à appliquer toutes les règles de transparence et de contrôle humain. » On a confié les clés de la régulation de l’intelligence artificielle aux opérateurs eux-mêmes. C’est tout de même très risqué.

Il faut laisser sa chance au texte et croire que les autorités publiques vont vraiment s’en emparer. Je pense qu’on va échapper à certaines dérives, comme la notation sociale, mais il y a tellement d’autres risques que je ne suis pas certaine que l’on puisse arriver à se battre avec ces outils juridiques.

Je crois beaucoup dans la justice et dans les autorités de contrôle. Mais le texte laisse quand même beaucoup de possibilités, en particulier aux pouvoirs publics. Par exemple, pour ce qui est de la surveillance dans l’espace public, clairement, le texte autorise beaucoup de choses et ouvre la porte à l’usage de la biométrie, ou à tout le moins à la vidéosurveillance algorithmique. 

mediapart