La « start-up nation » bouscule les services publics
Mediapart a interrogé le sociologue Gilles Jeannot, coauteur avec son collègue Simon Cottin-Marx du livre « La Privatisation numérique. Déstabilisation et réinvention du service public », sur la place prise dans le débat public de la notion de souveraineté numérique et sur le bilan d’Emmanuel Macron et de sa « start-up nation ».
Lors de la campagne pour l’élection présidentielle de 2017, Emmanuel Macron avait fait du développement du numérique un des piliers de son programme. L’entrepreneuriat devait être libéré des contraintes et la France devenir une « start-up nation ». Les procédures administratives, elles, devaient être entièrement numérisées pour que les citoyen·nes puissent réaliser en ligne l’intégralité de leurs démarches.
Cinq années plus tard, cet enthousiasme pour le numérique est quelque peu retombé. Le développement de la « start-up nation » a entraîné une dégradation des conditions de travail de milliers de salarié·es « ubérisé·es ». La dématérialisation des services publics, elle, s’est faite au prix d’un accroissement des inégalités et de l’exclusion des plus fragiles.
Les Françaises et les Français ont également pris conscience de la valeur de leurs données ainsi confiées à l’État et des risques de privatisation de celles-ci lorsqu’elles sont sous-traitées à des géants du Net américains, par exemple dans le cadre de leur stockage. La question de la souveraineté numérique et de la constitution d’infrastructures européennes s’est imposée depuis plusieurs mois dans le débat public et figurait dans les programmes de la quasi-totalité des candidates et candidats à l’élection présidentielle.
Dans leur livre La Privatisation numérique. Déstabilisation et réinvention du service public (Raisons d’agir, mars 2022), les sociologues Gilles Jeannot et Simon Cottin-Marx décryptent ces enjeux. Ils racontent également comment, peu à peu, les entreprises du numérique bouleversent les services publics, que ce soit de l’intérieur lorsque c’est l’État qui fait appel à elles, ou de l’extérieur lorsqu’elles se substituent à lui dans certains secteurs comme le logement ou le transport.
Pour évoquer toutes ces questions, Mediapart a interrogé l’un des coauteurs, Gilles Jeannot, chercheur au laboratoire Techniques territoires et sociétés (École des ponts, université Gustave-Eiffel, CNRS).
Emmanuel Macron avait fait de la « start-up nation » et de l’État-plateforme un des points phares de son programme de 2017. A-t-il réussi ?
Gilles Jeannot : En fait, l’idée d’État-plateforme, et la dynamique créative qui l’a accompagnée, est antérieure à son quinquennat. Pour être précis sur la chronologie, tout cela s’est joué six mois avant les élections qui vont amener Hollande au pouvoir. L’idée d’open data a, alors, le vent en poupe. Aux États-Unis, Barack Obama avait lancé un grand programme d’open government, de « gouvernement ouvert ». Des grandes villes socialistes avaient investi dans la foulée le thème. Nicolas Sarkozy pose alors, comme un rattrapage à la toute fin de son mandat, les premiers jalons des politiques d’open data ou encore des institutions qui deviendront Etalab [l’administration chargée de coordonner la stratégie de l’État en matière de données– ndlr]. Mais comme nous sommes alors juste avant les élections, les choses restent en suspens.
Quand François Hollande arrive, il y a un moment de flottement et des discussions, parfois assez serrées, notamment sur un sujet assez important : est-ce qu’il faut rendre gratuites ces données ? Et il y a une opposition, très liée à l’idée de service public, qui dit : « Attention, vous êtes en train de donner des bijoux de famille ! »
Des parlementaires socialistes vont faire un rapport disant : « Oui, on perd immédiatement de l’argent parce que ces données sont en partie vendues, mais l’ouverture va générer une dynamique économique qui générera plus de ressources publiques. » Ce choix idéologique de l’ouverture se joue dans les six mois qui suivent l’élection.
Ce que l’on peut associer au quinquennat d’Emmanuel Macron est plutôt le soutien à des start-up qui offrent des services en concurrence avec les services publics. La loi d’orientation des mobilités de 2019 va contraindre la RATP et la SNCF à rendre accessibles leurs données de trafic en temps réel et permettre le développement de l’application d’itinéraire CityMapper. Puis, avec la pandémie, le gouvernement va confier à la licorne franco-allemande Doctolib une partie des réservations de créneaux de vaccination qui auraient pu être portées par santé.fr.
Quelle était cette « dynamique créative » dont vous parlez durant le mandat de François Hollande ?
Il y a plusieurs couches et plusieurs sujets. Le premier est ce que l’on a appelé l’État-plateforme. Cette idée vient des États-Unis. L’un des auteurs ayant théorisé l’État-plateforme, Tim O’Reilly, proposait que des entreprises privées récupèrent les données publiques de l’open data, les traitent en y ajoutant d’autres types de données pour offrir des nouveaux services administratifs super réactifs, super adaptés. Le modèle de référence était alors l’Apple Store qui servait de support à de multiples applications offertes par des développeurs indépendants.
Mais ce projet n’a pas vraiment marché à l’époque.
Puis une nouvelle idée a émergé. Si le privé ne le fait pas tout seul, l’administration peut le faire elle-même, à la main. Cette approche a été portée notamment par Henri Verdier [directeur d’Etalab de 2013 à 2016 puis, jusque fin 2018, directeur de la Direction interministérielle du numérique et du système d’information et de communication (Dinsic), depuis devenue la Direction interministérielle du numérique (Dinum) – ndlr].
Ça a donné naissance aux « start-up d’État », qui traitent elles-mêmes les données et créent des services. Elles s’appuient en particulier sur la méthode des API [pour « interface de programmation d’application », des interfaces permettant de connecter les logiciels ou des services pour échanger des données – ndlr] et promeuvent des interventions souples et légères. On prend des données de différents services, on fait de petites moulinettes pour les traiter et on fait une interface utilisateur. C’est assez facile à faire, ça marche plutôt bien et ce ne sont pas des budgets énormes.
Tout ça a été fait par des développeurs qui étaient des contractuels de l’État. L’enjeu, là, n’est donc plus un enjeu de privatisation mais de type de modernisation interne : est-ce qu’on est dans une logique de petites équipes combattantes, non respectueuses des habitudes de l’administration, ou est-ce qu’on intègre l’ensemble des systèmes ?
Il y avait de vraies idées, un peu déstabilisantes. Un enjeu tout aussi important concernait les ressources humaines : recruter des gens dans une équipe assez limitée, c’est plus stimulant pour des jeunes que de travailler au ministère des finances dans une équipe de 50 personnes. C’était assez malin de ce point de vue. Mais ça ne résout pas tous les problèmes.
Pourquoi ? Que s’est-il passé ?
Après le départ d’Henri Verdier [son éviction après plusieurs mois de conflits avec le secrétaire d’État du numérique Mounir Mahjoubi avait été suivie d’une crise sociale au sein de l’institution– ndlr], on a un peu ce que j’appelle Thermidor à Etalab, c’est-à-dire la fin de la révolution.
Si vous lisez le programme Tech.gouv, la feuille de route du gouvernement après l’arrivée d’Emmanuel Macron, ce document classe selon le budget les grosses opérations de transformation informatique des administrations. La dernière, qui surnage de la période précédente, c’est FranceConnect, qui permet la connexion aux différentes administrations avec les mêmes codes. Le message est alors : « Attendez, vous êtes bien gentils mais les vrais enjeux informatiques, ce n’est pas les petites applications pour faciliter l’accès des usagers aux informations, c’est des grandes opérations comme l’impôt à la source, etc. On ne résoudra pas l’ensemble de l’informatique de l’État par des petites interfaces intelligentes et malignes. »
C’est un peu regrettable. Plutôt que d’étouffer cette dynamique créative, il fallait peut-être mieux combiner les deux approches pour réinvestir les grands projets informatiques.
La question de la souveraineté numérique a pris une place centrale dans le débat public, au point d’être abordée par quasiment tous les programmes des candidat·es à l’élection présidentielle. Comment expliquez-vous cet intérêt croissant des responsables politiques ?
La préoccupation est ancienne mais elle a été particulièrement avivée par le Cloud Act de mars 2018, qui autorise la justice américaine à accéder aux données stockées par une entreprise américaine, même si celles-ci sont stockées dans un pays tiers.
Les réponses apportées ont glissé vers une approche de plus en plus fondée sur la confiance aux marchés. Les premières étaient centrées sur l’autoproduction, avec des gouvernements qui affirmaient : « On va faire nous-mêmes notre propre cloud. » C’était le cas par exemple du projet de « cloud français » de 2012 lancé par Thales et Orange. Mais ça n’a pas marché.
Une deuxième logique a ensuite été de créer un consortium européen. C’est ce qui a débouché sur le projet Gaïa-X [un projet d’infrastructure de cloud à l’origine exclusivement européen – ndlr]. Puis, plus récemment, des entreprises américaines, dont Microsoft, Google et Amazon, ont été intégrées dans le projet. Le projet Gaïa-X, qui ressemblait au début à un « Airbus du numérique », a glissé vers un standard permettant aux entreprises européennes de coopérer, puis finalement une ouverture de ce standard à tous.
En résumé, pour s’opposer aux Américains, on les fait entrer dans le projet. On a du mal à comprendre la logique. Cela a d’ailleurs provoqué le retrait de l’un de ses fondateurs, l’hébergeur français Scaleway.
Quelle serait la solution ?
Le problème fondamental est qu’il semble que les grandes entreprises américaines détiennent, pour le traitement des données placées sur les serveurs, une avance technologique sur les entreprises européennes qui met celles-ci en position de dépendance. Des entreprises françaises suggèrent de traiter les deux enjeux de souveraineté et de compétence en conservant les données sur des serveurs européens, tout en utilisant des technologies de traitement américaines : OVH avec Google, Orange avec Microsoft. Le stockage et le traitement des données étant indissociables, pas sûr que ce montage résiste à de solides juristes.
Sur un autre enjeu de souveraineté, l’offre d’un positionnement par satellite en alternative aux systèmes GPS américain et Glonass russe, le projet Galileo mis en œuvre par des entreprises européennes coordonnées par l’Union européenne, malgré une longue gestation, illustre la possibilité de construire dans la longue durée une alternative technologique européenne. Cela a pris 20 ans, des budgets qui se comptent en milliards et la capacité à résister, au début, aux pressions du gouvernement américain, mais c’est aujourd’hui opérationnel. C’est en se plaçant à de tels niveaux d’implication que le déficit d’infrastructures et de compétences sur le stockage et le traitement des données peut être compensé.
Le fait que la commissaire à la concurrence, Margrethe Vestager, déclare en mars dernier qu’elle n’a pas de « préoccupations concernant la concurrence dans le cloud » témoigne bien de la poursuite de cette confiance dans l’équilibre du marché de la Commission européenne à ce propos et du fait que l’on est loin d’une telle visée de planification.
La question de l’extraterritorialité de la surveillance américaine a également été centrale dans les polémiques qui ont entouré la mise en place du Health Data Hub, la plateforme devant centraliser l’ensemble des données de santé des Français·es et un des grands projets numériques du premier mandat d’Emmanuel Macron. Finalement, attaqué devant le Conseil d’État, le gouvernement a dû s’engager en retirant l’hébergement confié à Microsoft. Et, en janvier dernier, le gouvernement a mis le projet en suspens en retirant sa demande d’autorisation auprès de la Commission nationale de l’informatique et des libertés (Cnil). Comment expliquez-vous cet échec apparent ?
Il y a une contradiction dès le début. Le rapport Villani, à l’origine du Health Data Hub, prenait acte du fait que s’il était difficile de rattraper les Gafam sur le cœur du marché de l’intelligence artificielle, il était possible sur des créneaux thématiques, dont la santé, de développer des alternatives crédibles. C’était un projet de politique industrielle. Confier à Microsoft le stockage mais aussi, de fait, une partie des instruments d’analyse des données était d’emblée en contradiction avec cette politique industrielle. Ce qui est au mieux une tentative maladroite d’affichage était donc d’emblée contradictoire. La Cnam a traîné des pieds, la Cnil a donné un accord mais du bout des lèvres, le Conseil d’État a mis des barrières… et finalement le gouvernement est en train de se désengager progressivement.
Lorsque cette affaire Microsoft sera derrière nous, il restera des questions importantes à discuter. Faut-il un système centralisé de rassemblement des données, comme le soutiennent les administrations de la santé, ou plutôt une mise en réseau de bases de données des hôpitaux, avec une capacité d’accès aux données administratives dans la continuité d’expériences des réseaux d’hôpitaux de l’ouest de la France ? Faut-il traiter les données médicales pour faire progresser la connaissance générale ou coupler ces données à celles propres à un patient particulier (comme celles des smartwatches ou des objets connectés) pour développer une médecine prédictive individualisée ? Le fait de pouvoir débattre de ces options indépendamment de l’influence des Gafam, qui ont des réponses de marché à ces questions, est un enjeu de démocratie.
L’un des espoirs portés par le numérique et l’ouverture des données publiques était de favoriser l’émergence d’une réappropriation de la technologie par les citoyen·nes, une « civic tech » qui renouvellerait la démocratie. Dans votre livre, vous expliquez qu’elle a échoué. Pourquoi ?
Tout d’abord, les difficultés rencontrées dans l’usage citoyen de l’open data sont liées au fait que c’est difficile d’exploiter les données mises à disposition par l’administration : être capable de récupérer des fichiers dans un format spécifique, de les transformer, de faire un travail de visualisation de ces données et de mise en évidence de résultats…, ce n’est pas facile. Il y a eu, bien sûr, des choses très intéressantes, par exemple sur le suivi de l’activité parlementaire ou sur le codage des règles des impôts. Mais très vite on est confronté au fait que le citoyen lambda n’est pas organisé, il ne sait pas trop quoi faire de ces données.
Il y a un second élément qui a joué. Nous n’avons pas eu de journalisme qui ait exploité massivement ces données comme ça a pu être le cas aux États-Unis, où le « data journalism » est beaucoup plus développé. Cela s’explique par le fait qu’en France on a refusé de mettre en open data les choses les plus croustillantes pour des journalistes. Aux États-Unis, typiquement, vous avez des articles qui donnent les salaires de tous les fonctionnaires, le nombre de morts par ethnie, le nombre de crimes par catégorie. Ça fait des articles qui marchent bien. En France, on n’a pas mis ce type de données à disposition, et ça ne me paraît pas choquant.
Le projet initial de l’open data reposait sur l’idée d’« open gouvernement » d’Obama et que les citoyens allaient porter ce mouvement. Mais, dans la réalité, les données ouvertes ont été surtout investies par des entreprises. La mise à disposition des données peut alors servir à fluidifier les marchés, comme on le voit par exemple avec les applications qui traitent les prix de vente donnés par le ministère des finances pour estimer le prix d’un bien immobilier. Cela peut aussi servir à créer un avantage de connaissance, comme les applications qui à partir de la compilation de toutes les jurisprudences proposent d’anticiper la décision d’un juge, par exemple aux prud’hommes.
Il faut cependant nuancer ce propos général. Certaines pratiques citoyennes ont eu des applications conséquentes. Dans les deux derniers chapitres du livre, Simon Cottin-Marx a montré comment les animateurs du commun OpenStreetMap ont combiné la récupération des données cadastrales issues de l’ouverture des données des services fiscaux avec les contributions des cartographes amateurs. Il a aussi rappelé le rôle de fonctionnaires militants autour du logiciel libre qui ouvrent une autre voie pour les civic techs.
Vous décrivez dans votre livre plusieurs modalités de privatisation de services publics par le numérique. Quelles sont-elles ?
Il y a tout d’abord des choses relativement classiques. Par exemple le fait que Blablacar propose une offre numérique qui vient remplacer les bus de la SNCF. Dans le domaine de la « ville intelligente », on a eu des opérateurs qui étaient censés être très nouveaux, comme IBM, Cisco, et qui ont fait des offres avec un projet d’intégration mais qu’ils n’ont pas pu tenir. Finalement, cela a donné des formes de délégations de service public avec des acteurs comme Suez, Bouygues qui mobilisent en second rang les grands du numérique comme IBM, Cap Gemini, etc., ou un lot de start-up. On reste donc sur des offres assez classiques.
Ce qui me semble plus original, ce sont des plateformes ou des applications qui ne vont pas vraiment racheter une entreprise publique mais qui se développent à côté. Vous pouvez trouver votre emploi sur LinkedIn au lieu d’aller à Pôle emploi. C’était Bison Futé qui vous conseillait pour vos déplacements, désormais vous allez utiliser une application.
Ces « à-côtés » peuvent ne pas être gênants. À la limite, qu’il y ait des offres d’emploi qui ne passent pas par Pôle emploi, ça permet à cette organisation de se concentrer sur le cœur de son métier. Dans certains cas même, cela peut constituer un défi positif. Par exemple, Citymapper, qui propose des itinéraires incluant métro et bus mais aussi trottinette, scooter ou auto-partage, est certainement plus intermodale que ne le sont les applications de la RATP et de la SNCF. Donc on se dit : « Ça bouscule un peu ces entreprises, c’est bien, ça les force à sortir un peu de leur pré carré. »
Mais, souvent, ces offres viennent bousculer les politiques publiques. Les cas les plus évidents, c’est Uber et Airbnb, qui sont sur la question des taxis et la question des logements, des domaines largement encadrés par des politiques publiques. C’est Waze qui envoie les automobilistes dans les petites rues résidentielles avec les problèmes de sécurité que cela pose. Ce sont enfin les applications qui permettent l’ubérisation de la logistique du dernier kilomètre en concurrence avec les services de La Poste. Le fait que le groupe La Poste rachète en 2017 la start-up de livraison urbaine Stuart qui utilise cette forme d’emploi témoigne bien de cette pression.
L’État a-t-il assez agi contre ces entreprises ?
Il faut souligner que les réactions les plus intéressantes se sont situées au niveau local. Les blocages d’Airbnb par exemple ont été décidés par des villes et non par l’État. On peut prendre l’exemple des trottinettes. Au départ, il y avait une sorte de désordre absolu. Mais, finalement, ça n’a pas été si compliqué que ça de mettre de l’ordre, mais il a fallu agir. La mairie a tapé du poing sur la table et dit : « Il y a trois opérateurs de trottinettes et il n’y en a pas cinquante. » Et trois opérateurs, on peut les contrôler, leur imposer des règles.
Au niveau national, la réaction doit peut-être être indirecte, plus en agissant sur le droit du travail, par exemple, que sur le numérique. Commençons par supprimer ce statut d’autoentrepreneur qui facilite certaines pratiques. Imposons l’application du droit du travail, tout simplement. Reconnaissons que ce sont des emplois, avec un employeur. Et là, on maîtriserait une partie de cette pression concurrentielle.
Il y a encore quelques années, certains annonçaient l’arrivée des « smart-cities » entièrement numérisées, où les flux d’informations seraient centralisés et analysés en temps réel pour gérer la ville. Dans votre livre, vous expliquez que les quelques projets lancés ont été des échecs. Pourquoi ?
Disons que c’est difficile d’apparier des données de services, de secteurs ayant leur propre histoire, des formats incompatibles, des propriétaires différents. Derrière l’ambition de l’intégration, en fait on rencontre assez vite d’assez gros problèmes. Alors que Google code lui-même les choses et peut donc tout mélanger. Pareil pour Amazon. Les opérateurs qui arrivent à être extrêmement puissants sont ceux qui génèrent leurs propres données.
Face à ces lourdeurs, au lieu d’un grand « lac de données » que tous les services de la ville viendraient interroger, on a des choses plus ponctuelles, par thème, sur les inondations, sur le transport, etc. Une étude avait été faite sur IBM qui vendait cette idée. Ils arrivaient à intégrer deux secteurs au plus.
Ici aussi, le travail d’intégration des données d’une ville, d’une métropole ou d’un réseau local de petites villes est une activité qui doit se construire dans la longue durée. Et le fait de s’affranchir des formats de certains éditeurs de logiciels métiers permettant la gestion de secteurs (Arpège, Berger-Levrault) et celui de savoir récupérer les données générées par les entreprises délégataires de service public (Veolia, Suez…) sont aussi des conditions de la maîtrise de cette intégration progressive des données.
mediapart.fr