La surveillance totale de nos vies doit rester illégale

C’est ce qui dit « la quadrature du Net »

La Quadrature du Net lance une campagne contre les technologies de reconnaissance faciale, déjà déployée dans nos villes, et compte attaquer l’État.

** **

La Quadrature du Net, via l’initiative « Technopolice », vient de déposer une plainte collective contre l’État français pour demander l’arrêt des dispositifs de surveillance. En utilisant le levier d’une action de classe, l’association de défense et de promotion des droits et libertés sur Internet attaque le ministère de l’intérieur via la Commission nationale de l’informatique et des libertés (CNIL) sur quatre technologies différentes : les caméras de surveillance, les logiciels qui les font fonctionner, les fichiers enregistrant les visages et les algorithmes de reconnaissance faciale. Après avoir fait plier Google et Amazon en obtenant des condamnations à des amendes respectives de 50 et 746 millions d’euros pour non-respect du RGPD (règlement général sur la protection des données), ces militants du numérique veulent non seulement remporter ce nouveau combat juridique mais également sensibiliser la population à ces problématiques. Pour la juriste Noémie Levain, il s’agit de rééquilibrer le rapport de force entre l’État et les citoyens.

Pourquoi l’ensemble de ces dispositifs de surveillance présente-t-il des risques sur nos libertés individuelles ?

Noémie Levain : Il existe une croyance que technologie égale sécurité. Ce n’est pas vrai. De plus en plus d’études montrent que ces dispositifs sont inutiles. Dont une de la gendarmerie qui conclut que la surveillance contribue à l’élucidation de seulement 1,13 % des enquêtes. Tout le fantasme de la « Smart City » aseptisée est ainsi résumé. Cette surveillance permet en réalité de viser les populations qui étaient déjà ciblées par la police, comme les SDF par exemple. Le but recherché est de « nettoyer les villes ». À la Quadrature du Net, on parle alors d’armes technologiques. La surveillance policière est juste un facteur d’augmentation de la répression.

A-t-on aujourd’hui des exemples de pays où cette surveillance est allée trop loin ?

Comparer est inutile. On veut parler de ce qu’il se passe en France parce que ce n’est pas assez connu et que ce sont les mêmes technologies et les mêmes entreprises qui officient partout ailleurs. Il y a aussi ce discours qui revient de plus en plus souvent comme quoi la France doit pouvoir être une puissance technologique face à la Russie et à la Chine, et que l’on doit disposer de nos petites entreprises françaises de surveillance qui vont s’entraîner sur notre population. C’est à nos yeux une façon pour les politiques de déplacer le problème. Les pratiques qui ont cours dans l’Hexagone sont déjà problématiques, surtout avec une idéologie que l’on peut ainsi résumer : « Nous sommes dans un État de droit et nous respectons tous les principes de l’Union européenne. » Ce qui est faux. Le système actuel est organisé pour violer tous les jours le droit européen en matière de protection des données et de non-discrimination. La reconnaissance faciale est déjà utilisée 1 600 fois par jour par la police française.

« Il s’agit désormais d’utilisations massives de la part de la police. Il y a urgence. »

Connaît-on le nombre de caméras actuellement déployées sur notre territoire ?

On ne sait pas combien il y en a vraiment. Une tentative de décompte de la Cnil en 2012 en dénombre plus de 800 000. Ce manque de remontées d’information est volontaire. On constate que ce manque de transparence est récurrent, dès lors qu’on s’intéresse au renseignement. Nous avons repéré une cinquantaine de villes dans lesquelles la vidéosurveillance algorithmique est déjà utilisée. Mais on pense qu’il y en a bien plus.

Les villes ne sont pas obligées d’en informer les populations ?

Non. Nous avons appris que Valenciennes a adopté ce dispositif car la ville a reçu une mise en garde de la Cnil sur son système de vidéosurveillance offert par Huawei. Pour Paris, notre dernière demande date d’il y a un ou deux ans. Nous n’avons pas eu de réponse. Pourtant, des expérimentations de vidéosurveillance algorithmique dans le métro ont été menées. Chercher les informations est une tâche que nous sommes les seuls à mener. C’est un énorme travail de documentation que nous menons depuis trois ans. Il n’est pas normal que des caméras algorithmiques soient installées dans les villes sans aucune discussion publique et sans l’avis des habitants.

Un encadrement juridique pour toutes ces technologies existe néanmoins…

Nous disposons du RGPD et de la directive police-justice, qui interdisent la reconnaissance faciale. Ou qui l’encadrent de manière stricte. Mais il y a de la reconnaissance faciale dans le fichier policier de traitement des antécédents judiciaires (TAJ) depuis 2012, qui contient plus de 8 millions de visages (1). Il n’existe pas de contrôle ni d’encadrement. On ne sait pas qui a accès à quoi. La CNIL, de son côté, ne s’autosaisit jamais, ne va jamais surveiller les fichiers et ne va pas contrôler ce qu’il se passe. Il y a aussi le fichier titres électroniques sécurisés (TES), qui contient toutes les photos des passeports et des nouvelles cartes d’identité. Certaines personnes aimeraient le détourner pour y faire de la reconnaissance faciale. Techniquement, c’est possible.

Sur quelles bases légales vous appuyez-vous pour déposer cette plainte ?

Nous utilisons les mêmes outils juridiques, c’est-à-dire le RGPD et la directive police-justice, qui posent les conditions de la légalité d’un traitement de données. Il existe des exigences de proportionnalité et de nécessité. Pour les caméras de surveillance, il y a aussi le code de la sécurité intérieure qui encadre légalement ces déploiements. Pour placer des caméras dans l’espace public, il faut que leur utilité soit démontrée. Aucune autorisation préfectorale n’a jamais justifié les finalités de leur déploiement. Il est intéressant de relever que des décisions de justice vont dans ce sens. À Ploërmel, en 2018, un juge a statué que l’installation des caméras n’était pas fondée. La municipalité a donc dû retirer les caméras.

Il ne s’agit pas de votre première plainte collective. Vous avez remporté récemment deux victoires contre Google et Amazon. Quelle leçon en avez-vous tirée ?

Il y a quatre ans, nous avions effectivement porté une première plainte commune, mais contre les GAFAM (Google, Amazon, Facebook, Apple et Microsoft). Amazon a été condamné à verser plus de 700 millions d’euros d’amende. Nous avions réuni plus de 12 000 personnes. Cela a permis de mettre en lumière le RGPD et la manière dont nous souhaitons que soient traitées nos données personnelles. Il n’y a jamais eu de plaintes en Europe réunissant autant de personnes. Le fait que ce soit une démarche collective a vraiment fonctionné. Nous souhaitons nous inscrire dans la même démarche, dans la même logique. Cette fois-ci, la cible est unique : il s’agit du ministère de l’Intérieur, que l’on peut attaquer collectivement en passant par la CNIL. Cela nous donne énormément de poids politique. Juridiquement, que nous soyons deux ou 100 000, cela ne change rien. Mais face au nombre, la CNIL ne pourra pas mettre le dossier sous la pile. La logique est la même au niveau médiatique. Nous voulons donner de la visibilité à ces sujets, que les gens s’en emparent.

Concrètement, comment le peuvent-ils ?

Nous sommes en train de préparer un guide juridique intitulé Comment attaquer les caméras ?. Il sera rendu public dans les semaines prochaines. De plus en plus de personnes dans de petites villes nous appellent et se mobilisent. Nous voulons leur donner les moyens de lutter contre ces technologies de surveillance. Et dans les mois qui viennent, nous continuerons à les encourager à s’organiser localement. Les citoyens doivent se rencontrer et se parler. C’est à leur niveau que ça se passe aussi.

La reconnaissance faciale existe depuis dix ans. Pourquoi déposer plainte maintenant et pas plus tôt ?

À l’époque, personne ne s’est aperçu du déploiement de ces systèmes. Nous n’avions pas travaillé la question. Mais ces technologies sont désormais au point et nous disposons de chiffres pour étayer nos dires. De nombreuses échéances se rapprochent aussi. Un règlement est actuellement discuté au niveau européen – « l’acte pour l’intelligence artificielle » –, qui est en passe de légaliser toutes ces technologies utilisées par la police. La Coupe du monde de rugby en 2023 et les Jeux olympiques de Paris en 2024 se profilent. Les politiques vont tenter d’en profiter pour légaliser ces pratiques et l’utilisation de ces technologies désormais matures. Il ne s’agit plus d’utilisations épisodiques, mais bien massives de la part de la police. Il y a urgence.

Vous évoquez la Coupe du monde rugby et les Jeux olympiques qu’accueillera La France. Quelles sont vos craintes ?

Pour les JO, nous savons que des expérimentations seront menées. Mais nous ne savons pas lesquelles. Ni dans quelles conditions elles le seront. Il s’agit d’agir au plus vite pour empêcher le déploiement de ces technologies de surveillance. Mais surtout de contester le discours affirmant qu’elles sont nécessaires. C’est aussi une occasion pour la France d’exposer son savoir-faire et d’inscrire ces technologies dans l’inconscient collectif.

N’est-il pas trop tard ?

Non. Nous documentons ces pratiques depuis trois ans. Nous avons étoffé nos arguments. Il est temps d’essayer de mettre un coup d’arrêt à tout ça. Si nous parvenons à gagner en France, le sujet émergera au niveau européen. Cela peut vraiment influencer les pratiques continentales et internationaliser le débat. Notre plainte collective sera déposée à la rentrée. Mais nous informons sur ce sujet dès maintenant afin de sensibiliser le plus grand nombre à ces questions. Notre dossier repose sur plusieurs points. Il suffit que la justice nous donne raison sur un seul d’entre eux pour que tout ce système de surveillance soit bloqué. La surveillance totale de nos villes et de nos vies est illégale et doit le rester.

Noémie Levain Chargée d’analyses juridiques et politiques chez La Quadrature du Net.

(1) Selon un rapport parlementaire d’octobre 2018 sur les fichiers mis à la disposition des forces de sécurité.

** **

Sous tous les angles

La vidéosurveillance algorithmique est, selon la Cnil, l’ensemble « des dispositifs vidéo auxquels sont associés des traitements algorithmiques mis en œuvre par des logiciels, permettant une analyse automatique, en temps réel et en continu, des images captées par la caméra ». De tels systèmes permettent ainsi de repérer automatiquement des comportements considérés comme suspects. En 2020, la RATP avait, par exemple, expérimenté la vidéosurveillance algorithmique pour repérer les gens sans masque dans le métro parisien.

Cet article est extrait de politis.fr en date du 8 juin