La CAF et le défenseur des droits

L’algorithme de la CAF peut provoquer une « discrimination indirecte », juge le Défenseur des droits

L’association La Quadrature du Net a saisi le Conseil d’État en octobre 2024 contre la Caisse nationale d’allocations familiales (Cnaf) et son algorithme jugé discriminatoire. Dix nouvelles associations se joignent au recours. Dans un avis, le Défenseur des droits conforte la position des requérants.

** **

L’algorithme utilisé par la Caisse nationale des allocations familiales (Cnaf) pour orienter et réaliser ses contrôles des allocataires est-il discriminatoire ? Cette question fait l’objet d’un recours porté devant le Conseil d’État par La Quadrature du Net et une kyrielle d’associations au nom du droit de la protection des données personnelles et du principe de non-discrimination. Désormais, annonce La Quadrature du Net le 20 janvier 2026, dix organisations supplémentaires se sont jointes aux quinze premières à l’origine de la procédure lancée en octobre 2024.

Il s’agit de collectifs de personnes concernées comme le Mouvement des mères isolées ou les Féministes contre le cyberharcèlement, des syndicats ainsi que des ONG françaises et européennes de défense des droits fondamentaux comme Solidaires, la FSU, European Digital Rights ou encore AlgorithmWatch. Ce qui témoigne, selon Bastien Le Querrec, juriste de La Quadrature du Net, « de la large opposition à l’algorithme de la Cnaf et, plus largement, aux algorithmes discriminatoires visant les personnes vulnérables. Cela montre que ce combat dépasse les frontières et qu’il fait l’unanimité contre la Cnaf ».

Ces vingt-cinq organisations espèrent obtenir en justice l’interdiction de l’utilisation dudit algorithme. Ce dernier attribue à chaque allocataire un « score de suspicion » dont la valeur est utilisée pour sélectionner celles et ceux faisant l’objet d’un contrôle. Ce score est d’autant plus élevé lorsque l’allocataire perçoit de faibles revenus, est au chômage ou perçoit le revenu de solidarité active (RSA).

Chaque mois, l’algorithme analyse les données personnelles de plus de 32 millions de personnes (les allocataires et leurs proches) et calcule plus de 13,8 millions de scores. En 2024, les montants versés par la Cnaf ont représenté plus de 108,6 milliards d’euros, indique-t-elle.

Risques de surcontrôle

Les requérants fondent également leur recours sur l’idée que ce traitement de données personnelles serait disproportionné par rapport au but poursuivi. Et au regard de la législation sur la protection des données qui impose certains principes : la collecte d’informations personnelles doit se limiter aux éléments nécessaires et pertinents au regard de la finalité fixée.

Ce que la Cnaf dément dans son mémoire de défense, transmis à la justice : « Une telle finalité est légitime, le bon usage des deniers publics et la lutte contre la fraude en matière de protection sociale constituant des objectifs de valeur constitutionnelle. » Elle insiste aussi sur le fait que les contrôleurs « n’ont pas accès au score », simplement au dossier à examiner.

Dans le cadre de cette procédure, le Défenseur des droits a été sollicité pour statuer sur le caractère discriminatoire ou non de l’usage des algorithmes. Son avis d’octobre 2025, dont Mediapart a pu prendre connaissance et que l’institution n’a pas souhaité commenter, va dans le sens des requérants. 

Elle rappelle que le risque de surcontrôle « ne doit pas être minimisé » et a des conséquences sur les allocataires. Là où la Cnaf, dans son mémoire en défense, assure que ces contrôles n’auraient pas « d’effet significatif sur l’allocataire ».

Les associations requérantes insistent, elles aussi, sur le caractère intrusif pour les allocataires. Dans leur mémoire en défense, il est rappelé qu’un contrôle sur place « permet […] de se rendre au domicile de l’allocataire, de consulter n’importe quel document chez lui, de questionner le voisinage… jusqu’à compter le nombre de brosses à dents dans la salle de bains ». Les travaux du sociologue Vincent Dubois le confirment.

[L’algorithme] paraît produire un surcontrôle des populations les plus précaires et donc constituer une différence de traitement.

Le Défenseur des droits

Le Défenseur des droits rappelle également que ce litige pose la question centrale de l’existence d’une discrimination indirecte fondée sur la particulière vulnérabilité économique. La discrimination est indirecte lorsqu’une disposition, un critère, une pratique apparemment neutre, est susceptible d’entraîner un effet défavorable pour une personne ou un groupe de personnes sur la base d’un critère prohibé par la loi (sexe, origine, etc.).

Ce que la Cnaf dans sa défense ne conteste pas « réellement », relève le Défenseur des droits. En effet, dans sa défense, l’organisme explique par exemple que « l’instabilité des ressources et de l’activité professionnelle de la population, au niveau de vie relativement modeste, est un facteur démultiplicateur du risque ».

Le Défenseur des droits conclut ainsi, que, sur la base des éléments dont elle dispose, le traitement algorithmique « paraît produire un surcontrôle des populations les plus précaires et donc constituer une différence de traitement fondée sur la particulière vulnérabilité économique. Une présomption de discrimination indirecte semble établie ». D’autant que l’efficacité de ces contrôles n’est pas établie et que la Cnaf peine à démontrer les finalités de ceux-ci.

Pour Bastien Le Querrec, ces observations du Défenseur des droits, qui rejoignent celles du recours, donnent « bon espoir » aux associations. Un rejet de la requête par le Conseil d’État enverrait un très mauvais signal, poursuit le juriste. « Cela signifierait qu’on admettrait qu’on peut juridiquement utiliser un algorithme qui cible les personnes en situation de vulnérabilité économique. »

Dans un troublant chevauchement de calendrier, la Cnaf a publié le 15 janvier un dossier de presse de dix pages dans lequel elle détaille sa méthode et la raison d’être de cet algorithme. L’organisme assure que les outils numériques « sont un levier pour garantir le paiement au juste droit, améliorer la qualité de service et anticiper les besoins des allocataires ». Et assure que tout est pensé « dans le respect des droits » et que l’institution « place l’éthique au centre de ses préoccupations ».

L’algorithme enfin publié

La Cnaf annonce qu’en ce début 2026, un nouveau modèle de recherche de données – ou datamining – a été élaboré pour tenir compte des « évolutions réglementaires » et de la « généralisation de la solidarité à la source » en mars 2025. Elle explique également que « sa démarche d’élaboration a été particulièrement guidée par la prise en compte des risques de discrimination liés aux variables retenues, en excluant les variables les plus sensibles ou contestables, selon une méthode explicable ». Elle indique aussi avoir exclu plusieurs variables « potentiellement sensibles » pour limiter les risques discriminatoires. Pourtant, la Cnaf a toujours récusé avec vigueur les accusations lui reprochant de mobiliser des critères discriminatoires.

L’organisme indique aussi avoir réuni pour la première fois en mars 2025 un comité d’éthique composé d’expert·es, de professionnel·les de la Cnaf et des caisses locales, de représentant·es des usagers et usagères, etc. La Cnaf a aussi publié le code source de son algorithme actuel, demande formulée de longue date par La Quadrature du Net, qui avait dû saisir en 2022 la Commission d’accès aux documents administratifs (Cada) après le refus de la Cnaf de communiquer ces documents. L’association avait obtenu gain de cause, sauf que la version alors utilisée du code source n’avait pas été jugée communicable, car la dévoiler reviendrait à faciliter la fraude, avait argumenté la Cnaf à l’époque.

Aujourd’hui, les requérants saluent cet « effort de transparence » mais ajoutent que cela ne doit pas « détourner l’attention sur le fait qu’une étude interne de la Cnaf datant de 2025 a reconnu les effets discriminatoires de l’algorithme ». Ce document, cité par La Quadrature du Net dans ses écritures, et produit par la direction des statistiques, des études et de la recherche de la Cnaf, compile les chiffres indiquant la représentation de certaines catégories de personnes parmi les foyers ayant un score de risque situé dans les 5 % les plus élevés et parmi les personnes contrôlées en raison d’un score trop élevé.

Concrètement, les personnes bénéficiant du revenu de solidarité active (RSA) ne représentent que 13 % de l’ensemble des allocataires mais 49 % des 5 % avec les plus hauts scores dans l’algorithme utilisé en 2018 et 51 % des contrôles issus du datamining.

Outre l’interdiction d’utilisation du score, les requérants demandent au Conseil d’État de renvoyer l’affaire devant la Cour de justice de l’Union européenne afin d’obtenir une décision à plus grande échelle.

La question se pose en France de manière accrue au regard du contexte politique, soulignent les associations. « Cet algorithme est conçu autour de l’idée de “lutte contre l’assistanat”, note Bastien Le Querrec. C’est toute la politique qui s’incarne dans le projet de loi sur la fraude actuellement en discussion au Parlement qu’il faut remettre en question. C’est la traduction d’un système social qui frappe les plus précaires, une politique de droite très dure, voire d’extrême droite. » Mais d’autres pays sont concernés, comme l’a montré le scandale qui a frappé les Pays-Bas

Le Conseil d’État a informé les plaignants que la phase écrite du contentieux se conclura à la fin du mois. Une audience publique pourrait se tenir au printemps. 

Faïza Zerouala sur son blog à mediapart