VidéoSurveillance Algorithmique (VSA)

La Cnil rappelle à l’ordre la municipalité lilloise

Après la révélation de l’utilisation par la police municipale lilloise du logiciel d’analyse d’images BriefCam sans l’avoir jamais déclaré, les élus écologistes locaux ont saisi la Commission nationale de l’informatique et des libertés. Celle-ci a rappelé la municipalité à ses obligations légales.

– Comme l’affirmait Mediacités le 20 décembre, la ville de Lille a bien omis de signaler à la Commission nationale de l’informatique et des libertés (Cnil) que sa police municipale utilisait le logiciel de surveillance algorithmique BriefCam. Une utilisation que nous avions révélée un mois auparavant. Le groupe des élu·es écologistes au conseil municipal avait dans la foulée saisi la Cnil pour l’informer de cet oubli. L’autorité chargée de la protection des données personnelles vient, récemment, de confirmer les révélations de Mediacités.

Dans un courrier envoyé le 24 mars aux conseillers municipaux du groupe Lille Verte, la Cnil indique ainsi que ses services « sont intervenus à l’appui de [leur] plainte auprès de la commune de Lille ». Résultat de ces investigations ? « Le logiciel BriefCam a été mis en œuvre entre novembre 2022 et janvier 2025 sans qu’une analyse d’impact préalable ait été menée quant à ce traitement », écrit la Cnil. Soit exactement ce que nous affirmions dans notre article, en dépit des démentis officiels qui nous avaient été opposés.

Rappelons que BriefCam n’est pas un logiciel comme les autres. Dopé à l’intelligence artificielle, il est doté de puissantes fonctionnalités qui peuvent poser des problèmes, comme, potentiellement, la reconnaissance faciale, même si celle-ci ne semble pas avoir été activée dans le cas lillois. Mais encore faut-il le préciser. C’est tout l’objet des analyses d’impact qui doivent obligatoirement être transmises à la Cnil.

Rappel à la loi

D’où la tape sur les doigts infligée à la municipalité lilloise, comme le révèle le courrier envoyé aux élu·es écologistes. « Sur la base des éléments ainsi recueillis, est-il écrit, la présidente de la Cnil a rappelé à la commune de Lille ses obligations en matière de réalisation d’une analyse d’impact relative à la protection des données, conformément aux dispositions de la loi du règlement général sur la protection des données (RGPD). »

Dans notre article de décembre, nous avions relevé que la maire de Lille, Martine Aubry, s’était montrée soudain plus prudente sur ce dossier lors d’une récente séance du conseil municipal. « On n’a pas été mis en demeure, donc, normalement, on n’a rien à se reprocher », avait-elle expliqué. Nous soulignions par ailleurs que la ville aurait bientôt la possibilité de se mettre en conformité avec la loi, car les déclarations concernant les projets de vidéosurveillance doivent être renouvelées tous les deux ans. Ce serait là l’occasion de réparer un oubli fâcheux.

Bingo ! Notre hypothèse s’est révélée prémonitoire : le logiciel BriefCam fait désormais officiellement partie du projet de vidéoprotection lillois. « Il a, depuis, été intégré dans l’analyse d’impact relative à la protection des données lors de sa mise à jour en janvier 2025 », nous apprend le courrier de la Cnil. Celui-ci précise que la plainte des élus écologistes a donc été clôturée.

La surveillance algorithmique toujours en débat

Pas sûr, toutefois, que cela clôture tout débat sur la question. « Ça ne règle pas le problème pour nous, réagit Jérémie Crepel, conseiller municipal du groupe Lille Verte et membre du comité municipal d’éthique pour la vidéoprotection. La ville s’est enfin mise en conformité, mais ça reste grave parce qu’elle a utilisé le logiciel algorithmique pendant trois ans en toute illégalité sans que ce soit évoqué en comité d’éthique. »

«Or, à quoi sert ce comité d’éthique qui na pas été informé ?, poursuit-il. Cela peut miner la confiance des citoyens. Cela nécessite a minima des explications sur les raisons de ce non-respect des règles et une révision de son fonctionnement. »

De fait, l’utilisation de BriefCam n’aurait pas été abordée depuis, selon Jérémie Crepel. « Nous n’avons pas eu de nouvelles informations, affirme-t-il. On nous a juste dit que ça ne faisait pas de reconnaissance faciale et que c’était seulement utilisé pour la lecture des plaques d’immatriculation. Mais cela permet la reconnaissance de couleurs et de formes pour retrouver des voitures, sur réquisition judiciaire. Il nous a été précisé que cette option n’avait été activée qu’à une seule reprise et qu’elle n’avait rien donné. Reste qu’il s’agit de capacités potentiellement activables pour d’autres usages. »

«Ce qui minquiète, poursuit le conseiller municipal, c’est l’absence de réflexion des élus sur l’utilisation d’un logiciel comme BriefCam. On met en avant le caractère pratique, car il permet de lancer une recherche automatique au lieu d’avoir à visionner des heures d’enregistrement. Mais il n’y a pas de discussion de fond. »

Il souligne par ailleurs que la Métropole européenne de Lille (MEL) s’apprête à mettre en place un centre métropolitain de supervision urbain couvrant 38 communes adhérentes et qui devrait, selon lui, utiliser un logiciel algorithmique autre que Briefcam. Si c’est bien le cas, il faut espérer que la MEL et les communes concernées n’oublieront pas de le signaler à la Cnil.

Yves Adaken (blog Mediacités sur mediapart)

** **

Encore une utilisation illégale de la VSA (le cas de Lille)

Situation déjà évoquée en 2016 dans un communiqué du collectif Ecran Total, l’hyper surveillance se déploie en dépit du respect des lois pourtant bien édulcorées censées encadrer la mise en œuvre.
Après le procès gagné par La Quadrature du Net au Tribunal administratif face à la Mairie de Moirans et à l’éditeur du logiciel Briefcam qui utilise la reconnaissance faciale mentionnée dans notre article, le journal Mediapart reprend un article de Mediacités, journal en ligne d’investigation locale, qui revèle l’Utilisation illégale de la VidéoSurveillance Algorithmique (VSA) à Lille épinglée par la Commission Nationale de l’Informatique et des Libertés (CNIL)précisant que « la ville de Lille a bien omis de signaler à la CNIL que sa police municipale utilisait le logiciel de surveillance algorithmique BriefCam ».
Il faut dire que le mauvais exemple est donné au plus haut niveau avec le ministère de l’intérieur mis en demeure en décembre 2024 par la CNIL pour l’utilisation de ce logiciel par la police nationale en toute illégalité depuis 2015 (ainsi que l’a documenté le site Disclose).
« Le logiciel BriefCam a été mis en oeuvre entre novembre 2022 et janvier 2025 sans qu’une analyse d’impact préalable ait été menée quant à ce traitement », écrit la CNIL.

Désormais « intégré dans l’analyse d’impact relative à la protection des données en janvier 2025 », la plainte a été clôturée par la CNIL mais sans aucun débat éthique et citoyen au sujet de l’opportunité de ces systèmes.
La Métropole européenne de Lille (MEL) s’apprête à mettre en place un centre métropolitain de supervision urbain désigné par le terme CSU (comme il existe déjà à Saint Etienne Métropole) couvrant 38 communes qui devrait utiliser un logiciel autre que Briefcam.
Et en parallèle, un petit comité de députés a voté la prolongation de l’expérimentation de la VSA jusqu’en 2027 rien moins que çà en continuant à promouvoir ce qu’ils désignent comme la vidéoprotection auprès du grand public (en février par 125 députés votants dont 86 pour sur 577 membres).
Pour résister au déploiement de cette hyper surveillance, nous vous invitons à participer à la campagne nationale « Pas de VSA dans ma ville », initiée par La Quadrature du Net :

halteaucontrolenumerique.fr

** **

Face à l’ampleur des technologies de surveillance en France

Un document d’Amnesty

En France, les technologies de surveillance deviennent de plus en plus la réponse aux enjeux sécuritaires : reconnaissance faciale à l’entrée des lycées, aux abords des stades, analyse des comportements dans les gares, volonté de prolonger la vidéosurveillance algorithmique des Jeux olympiques… Retour sur ces expérimentations de vidéosurveillance algorithmique et de reconnaissance faciale qui nous inquiètent.

Le 24 avril 2025, le Conseil constitutionnel a censuré la prolongation de la vidéosurveillance algorithmique des Jeux olympiques, proposée par le gouvernement dans la loi « sûreté dans les transports». Mais l’intérêt des autorités françaises pour ces technologies reste bien présent.

De nombreux systèmes de surveillance sont expérimentés en France. Déployés pour certains, abandonnés pour d’autres, ces projets démontrent tous un appétit grandissant des autorités et des acteurs en charge de la sécurité pour les technologies de surveillance telles que la vidéosurveillance algorithmique et la reconnaissance faciale

Quelles sont les expérimentations menées en France ? Dans quelles villes ? Comment sont-elles encadrées et quels sont les risques ? Tour d’horizon des expérimentations des technologies de surveillance en France. 

  1. Nice expérimente la reconnaissance faciale lors de son carnaval 

En 2019, Nice a expérimenté la reconnaissance faciale lors de son carnaval avec le logiciel israélien Anyvision. Des visages scannés, en temps réel, sur la voie publique. C’est la première fois qu’une telle expérimentation est réalisée en France. Le dispositif permettait à la fois l’authentification des personnes (vérifier leur identité) et l’identification (identifier une personne dans une foule).

⚠️️ Expérimentation autorisée  

❌ Implication tardive de La CNIL 

❌ Le consentement ne peut pas être une base légale pour le déploiement de la reconnaissance faciale à des fins sécuritaires.

Quel encadrement ?

Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire.

  1. Marseille et Nice ont voulu tester la reconnaissance faciale dans des lycées 

En 2018, la région Provence-Alpes-Côte-d’Azur (PACA) a autorisé deux lycées de Nice et Marseille à tester la reconnaissance faciale. Le dispositif prévoyait d’installer des portiques à l’entrée des lycées avec un volet « contrôle d’accès biométrique » et un volet « suivi de trajectoire » des lycéens et visiteurs.

❌ Expérimentation non-autorisée  

❌ Dispositif contraire au droit européen

Quel encadrement ? 

Voici à quoi pourrait ressembler un quotidien avec reconnaissance faciale

Vous avez du mal à vous figurer à quoi pourrait ressembler votre quotidien avec la reconnaissance faciale ? Notre court-métrage « Dans leurs yeux: la France à lheure de la reconnaissance faciale » vous invite à le découvrir. Lorsque les technologies de surveillance envahissent nos vies, que reste-t-il de nos libertés ? Un film entre fiction et réalité.

Le visionnage de cette vidéo entraîne un dépôt de cookies de la part de YouTube. Si vous souhaitez lire la vidéo, vous devez consentir aux cookies pour une publicité ciblée en cliquant sur le bouton ci-dessous.

Synopsis: Mai 2026, en France. Un lycéen, un homme et une femme sont confrontés à une nouvelle réalité : la reconnaissance faciale. Face à cet œil qui ne dort jamais, quel sera le prix à payer ?

https://www.youtube.com/watch?v=JEEOcwOAKng

  1. La police française équipée d’un logiciel permettant la reconnaissance faciale  

En novembre 2023, le média Disclose révèle que la police française se serait dotée du logiciel israélien Briefcam, qui contient une fonctionnalité de reconnaissance faciale. Celle-ci serait même activée par défaut sur le logiciel depuis 2018. Selon Disclose, le logiciel Briefcam équiperait la police municipale dans près de 200 communes. Pendant huit ans et en dehors de tout cadre légal, la police française aurait donc eu à disposition un outil permettant la reconnaissance faciale dans l’espace public. À la suite des révélations de Disclose, la CNIL a lancé une procédure de contrôle à l’encontre du ministère de l’Intérieur, qui lui-même a demandé une enquête indépendante et des conclusions publiques sous trois mois. Ce délai est largement dépassé, et les conclusions se font toujours attendre.

❌Pas de consultation préalable de la CNIL  

❌Pas d’analyse d’impact relative à la protection des données 

❌Atteinte aux droits fondamentaux si utilisation avérée de la reconnaissance faciale

Quel encadrement ?

Parce que la reconnaissance faciale à des fins d’indentification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire.

  1. Le stade de Metz aurait expérimenté la reconnaissance faciale sur des supporters

Les outils de reconnaissance faciale attirent aussi les acteurs privés. En 2020, le club de football FC Metz aurait testé cette technologie lors d’un match de ligue 1 afin d’identifier les spectateurs interdits de stade, détecter les objets abandonnés et « lutter contre le terrorisme ». Les dispositifs de reconnaissance faciale ont été mis en place par l’entreprise Two-i. Le club a démenti, indiquant qu’il ne s’agissait que de « tests techniques à vide, réalisés sur des employés de la start-up ». Les supporters n’étaient pas au courant de l’expérimentation supposée. A leur insu, ils auraient été exposés à des outils de reconnaissance faciale. « Nous refusons de devenir des rats de laboratoire » a réagi l’Association nationale des supporters.

❌Avertissement de la CNIL au FC Metz  

❌Dispositif contraire au droit européen  

❌Violation du droit à la vie privée 

Quel encadrement ?

Parce que la reconnaissance faciale à des fins d’identification ne pourra jamais être compatible avec le respect des droits humains, nous demandons une loi pour l’interdire.

  1. Des gares à Paris et Marseille analysent les comportements via la vidéosurveillance algorithmique

Depuis plusieurs mois, la vidéosurveillance algorithmique est expérimentée dans la gare du Nord et la gare de Lyon à Paris et, plus récemment, dans la gare de Marseille-Saint-Charles. Ce système de surveillance vise à détecter l’abandon de bagages et à suivre leur propriétaire. Bien qu’il ne s’agisse pas d’outils de reconnaissance faciale, les algorithmes analysent des comportements, des données personnelles comme la démarche ou la taille des personnes. 

L’expérimentation a lieu à :   

Gare du Nord à Paris, du 12 février au 30 août 2024 et concerne 100 caméras  

Gare de Lyon à Paris, du 27 mars au 30 août 2024 et concerne 70 caméras  

Gare Saint-Charles à Marseille, du 15 avril au 30 août 2024 et concerne 87 caméras 

⚠️ Expérimentation en cours 

❌ Risque d’atteinte au droit à la vie privée 

❌Risque d’atteinte au droit à la liberté d’expression 

❌Risque d’atteinte au principe de non-discrimination

Quel encadrement ?

En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France.

  1. Valenciennes s’équipe de caméras « intelligentes » offertes par Huawei 

Depuis 2017, Valenciennes dispose d’un large réseau de caméras équipées de logiciels d’intelligence artificielle. C’est l’entreprise chinoise Huawei qui a offert à la ville ce dispositif, d’une valeur de 2 millions d’euros. Plusieurs outils sont mis à disposition comme un dispositif de lecture automatisée des plaques d’immatriculation, ou encore un logiciel de vidéosurveillance algorithmique permettant d’évaluer la densité d’une foule et de lancer des alertes.  

⚠️ Dispositif actuellement déployé 

❌Dispositif contraire au droit européen

Quel encadrement ?

En légalisant la VSA à l’occasion des Jeux olympiques et paralympiques, la France ouvre la voie à des technologies encore plus intrusives comme la reconnaissance faciale… nous demandons une loi pour interdire cette technologie avant qu’elle ne devienne une réalité en France. 

  1. Cannes recourt aux caméras « intelligentes” pour détecter le port du masque

En 2020, Cannes a mis en place des caméras associées à des systèmes d’intelligence artificielle pour détecter le port du masque dans les transports en commun et trois marchés de la ville. C’est l’entreprise française Datakalab qui a fourni les outils.

❌Expérimentation stoppée à la suite de l’avertissement de la CNIL

❌Dispositif contraire au RGPD 

Quel encadrement ?

Face à l’ampleur du déploiement des technologies de surveillance en France, une loi interdisant la reconnaissance faciale à des fins d’identification est nécessaire et urgente !

Katia Roux, chargée de plaidoyer technologies & droits humains à Amnesty International France

La liste de ces projets ou dispositifs de surveillance en France est non exhaustive. D’autres villes comme Toulouse, Vannes, Strasbourg seraient dotées de tels outils et d’autres projets encore inconnus sont peut-être en train d’être développés. Retrouvez ici une carte interactive du collectif Technopolice listant les expérimentations de technologies de surveillance en France.

L’intérêt des autorités françaises pour ces technologies de surveillance n’est plus à démontrer. Et il nous préoccupe. Pour prévenir un basculement vers une surveillance généralisée en France, nous demandons, dès maintenant, l’adoption d’une loi visant à interdire la reconnaissance faciale à des fins d’identification dans l’espace public. Seule une interdiction totale de la reconnaissance faciale, sans exception, permettra de garantir nos droits fondamentaux.  

Dites non à la reconnaissance faciale en France !

Agissez avant que la reconnaissance faciale devienne une réalité en France en signant notre pétition.

Votre signature va permettre d’appuyer le travail de plaidoyer effectué auprès des député·es pour qu’une loi interdisant l’utilisation de la reconnaissance faciale soit déposée à l’Assemblée nationale.

Signer notre pétition

Lire aussi : 

De la VSA à la reconnaissance faciale, il n’y a qu’un pas

Lire aussi :

Comment le gouvernement a voulu prolonger la vidéosurveillance algorithmique

Lire aussi :

JO 2024 : en quoi la vidéosurveillance algorithmique pose problème ?