Pendant les élections, la reconnaissance faciale

« Ces expérimentations ont pour but d’accoutumer la population à la présence de ces technologies de surveillance »

Alors que la commission des lois du Sénat vient d’adopter à l’unanimité un rapport d’information sur la « reconnaissance faciale », le journaliste Olivier Tesquet expose sur QG les dangers d’une telle technologie, et les intentions troubles des sénateurs, qui préconisent une série d’expérimentations sous couvert de protéger les citoyens.

Le 11 mai dernier, un groupe de travail de la Commission des Lois du Sénat a présenté un rapport préconisant d’expérimenter la reconnaissance faciale en France pour une durée de trois ans. Au prétexte de vouloir encadrer l’utilisation de cette technologie, les trois rapporteurs Arnaud de Belenet (LREM), Jérôme Durain (PS) et Marc-Philippe Daubresse (LR) proposent une trentaine de mesures pour « écarter le risque d’une société de surveillance », tout en ouvrant la porte à des expérimentations dans l’espace public.

Les sénateurs souhaitent dans leur toute première proposition réaliser « une enquête nationale visant à évaluer la perception de la reconnaissance biométrique par les Français » et « identifier les ressorts d’une meilleure acceptabilité de cette technologie ». Une proposition qui fait craindre un phénomène d’accoutumance de la population vis-à-vis de la reconnaissance faciale. Même si ce phénomène reste peu connu du grand public, cette technologie est pourtant déjà utilisée par la police en France depuis maintenant plusieurs années. L’association « La Quadrature du Net » note qu’en 2021 la police « réalisait 1.600 opérations de reconnaissance faciale par jour, en dehors de tout cadre légal » à partir des 8 millions de visages du fichier TAJ (Traitement d’antécédents judiciaires). L’association a par ailleurs lancé ce mardi 24 mai une plainte collective contre le Ministère de l’Intérieur et l’État français contre la technopolice et la surveillance de l’espace public.

Olivier Tesquet, journaliste à Télérama, spécialisé dans les questions numériques et de libertés publiques et auteur de État d’urgence technologique a répondu aux questions de Luc Auffret pour QG sur les risques d’une telle technologie.

QG: Quels sont les dangers de la reconnaissance faciale aujourd’hui en France ?

Olivier Tesquet : Le risque, et il existe aujourd’hui, c’est que cette technologie soit utilisée sans les garde-fous législatifs et judiciaires suffisants. Le grand public l’ignore, mais la reconnaissance faciale est déjà utilisée en France, dans le Traitement des antécédents judiciaires (TAJ), qui compte 8 millions de photos et a fait l’objet de plus de 600.000 requêtes depuis 2019. Parfois, de manière plus ou moins artisanale et sur des bases légales floues, cette technologie est mobilisée lors de contrôle de police. On se retrouve alors dans une situation qu’on a déjà connue avec d’autres technologies comme les drones de la loi Sécurité globale, censurés par le Conseil constitutionnel puis recyclés dans un autre texte : l’usage précède le droit, qui n’a plus pour seule mission que de légaliser ce qui est illégal.

Il y a ensuite un risque extrêmement important d’atteinte aux libertés fondamentales, que le rapport souligne. L’utilisation la plus spectaculaire et la plus dangereuse de cette technologie est son utilisation en temps réel dans l’espace public à des fins policières. On ne devrait pas se promener dans la rue en étant soumis à un contrôle d’identité permanent et général.

QG: Les rapporteurs ont voulu insister sur la mise en place de lignes rouges… Sont-elles suffisantes ou y a-t-il un vrai risque d’ouvrir la porte à une société de surveillance ?

Le risque est toujours le même : on trace au sol une ligne rouge mais on l’accompagne d’exceptions, notamment d’ordre sécuritaire. En établissant ces exceptions, on prend toujours le risque d’une banalisation et d’un effet cliquet qui rendra très compliqué le retour en arrière une fois que cette technologie aura commencé à être déployée. Le rapport préconise néanmoins de vrais interdits, comme la détection des émotions, héritée de pseudosciences racistes du XIXe siècle, ou encore le crédit social, dont on a beaucoup parlé, avec l’exemple de la Chine. Mais là aussi, cela ne signifie pas que l’on est totalement immunisé contre ce type de contrôle, qui peut se matérialiser de façon plus insidieuse. En France, par exemple, les organismes de prestations sociales analysent massivement des données pour identifier les allocataires à risque, ce qui a pour effet une notation algorithmique et discrétionnaire des individus.

QG: Est-ce qu’il n’y a pas un risque d’acceptation de la population vis-à-vis de cette technologie si une telle loi était adoptée ?

Je suis toujours très méfiant vis-à-vis de ces cadres dits expérimentaux car bien souvent, pour les mêmes raisons que celles énoncées plus haut, ils condamnent à l’inéluctabilité.

Je m’interroge : s’agit-il d’essayer une technologie pour déterminer si elle améliore la société, ou seulement d’accoutumer la population à sa présence ? Quand j’entends certains industriels dire que telle ou telle technologie « ne peut pas être désinventée », cela dire non. C’est difficile quand l’état d’urgence, qui est devenu le mode de gouvernement depuis 2015, a contribué à rendre l’exceptionnel ordinaire et le temporaire permanent. Je n’oublie pas non plus les échéances de grands évènements sportifs – Coupe du Monde de rugby en 2023, Jeux olympiques en 2024 – qui sont toujours d’intenses moments de normalisation de ces outils.

Plus généralement, j’ai le sentiment qu’on ne débat pas de la technologie mais seulement de ses modalités d’utilisation. On a pourtant pu voir ces dernières années que de grandes villes américaines, comme San Francisco, ont décidé d’interdire la reconnaissance faciale.

Cela montre qu’il suffit d’une volonté politique.

QG: Le troisième point du rapport souhaite interdire la surveillance biométrique à distance en temps réel lors des manifestations sur la voie publique. Mais n’y a-t-il pas un risque que les images captées soient analysées par un logiciel de reconnaissance faciale ?

Théoriquement, l’utilisation par la police des images de vidéosurveillance est encadrée par l’autorité judiciaire. Or, bien souvent, on se rend compte que celles-ci sont utilisées sauvagement. On en revient à la sempiternelle question du contrôle : qui accède aux données et comment ? Sans garanties fortes, on peut craindre les mêmes débordements avec le traitement biométrique des images.

La vigilance est d’autant plus nécessaire que les représentants des forces de l’ordre voudraient intégrer la reconnaissance faciale à d’autres fichiers de police, comme celui des personnes recherchées (FPR), mais aussi ceux qui concernent les atteintes à la sécurité publiques (CRISTINA, GIPASP), et qui sont régulièrement critiqués car ils permettent de surveiller les opinions politiques, syndicales ou religieuses.

Lien du tweet :

Dans ce contexte, avec tous ces paramètres et malgré les recommandations prudentes du Sénat, il n’y a pas besoin d’être très créatif dans la dystopie pour imaginer un futur dans lequel se déploierait une surveillance très granulaire des mouvements sociaux en s’appuyant sur cette technologie. Une chercheuse comme Vanessa Codaccioni l’a très bien démontré : les politiques répressives nées de l’anti-terrorisme ont débordé dans le droit commun, et utilise aujourd’hui les mêmes outils du droit pour surveiller les militants écologistes ou les Gilets jaunes que des potentiels terroristes.

A bien des égards, c’est hélas un retour aux sources, doublé d’un changement d’échelle.

Historiquement, depuis le XIXe siècle, les seules catégories de population qui devaient justifier de leur identité étaient celles considérées comme dangereuses: pauvres, étrangers, criminels récidivistes. Aujourd’hui, non seulement il y en a de nouvelles, mais n’importe qui pourrait demain se retrouver pris dans les filets dérivants d’une surveillance indiscriminée.

https://qg.media/