Algorithmes et adolescents de 13 ans

À quoi sont réellement confronté·es les adolescent·es quand ils et elles naviguent sur leur smartphone ?

La question est cruciale à l’heure où l’Assemblée nationale s’apprête à débattre, le 26 janvier, de l’interdiction des réseaux sociaux aux moins de 15 ans. « Les plateformes savent que les émotions fortes, notamment négatives, sont particulièrement efficaces pour capter l’attention, explique Mathilde Saliou, autrice du livre L’Envers de la tech. Si la machine identifie qu’un certain type de contenu vous fait rester plus longtemps, elle va vous en proposer de plus en plus. »

Ce mécanisme repose sur ce que la journaliste appelle des « rabbit holes », cette expression anglaise renvoyant aux puits sans fond addictifs dans lesquels peuvent plonger les utilisateurs et utilisatrices de smartphones. « On parle de l’algorithme pour simplifier, mais en réalité il s’agit d’une somme de systèmes qui servent à trier, tester et hiérarchiser les contenus en fonction des réactions des utilisateurs », explique-t-elle. Une mécanique largement invisible pour le public, d’autant que « ces entreprises gardent leur cuisine interne secrète ».

Mediapart a tenté l’expérience, en créant trois faux comptes d’internautes en janvier 2026. Assa, Sarah et Alexandre, personnages fictifs, viennent d’avoir 13 ans, l’âge minimum requis pour s’inscrire sur TikTok, Snapchat, Instagram ou Facebook. Aucun abonnement, aucun contact n’a été ajouté par nos soins, pour ne pas fausser le processus. Les cookies facultatifs ont été systématiquement refusés, et les comptes utilisés en navigation privée.

L’objectif de l’exercice est simple : observer ce que les algorithmes recommandent à un·e mineur·e au seuil de l’âge légal, sans interaction humaine susceptible d’orienter les contenus proposés. Il porte exclusivement sur les fils de vidéos courtes à défilement continu, c’est-à-dire le fil « Pour toi » sur TikTok, « Spotlight » sur Snapchat et les « Reels » sur Instagram et Facebook. 

Sur chacun des comptes, nous nous sommes limités à une seule heure de navigation. Toutes les vidéos ont été visionnées intégralement. Aucun « like » n’a été mis, ni aucun commentaire publié. Les lives, lorsqu’ils sont apparus dans un fil, ont été ignorés afin de ne pas interférer avec les mécanismes de recommandation.

Nous avons en revanche choisi d’écarter la plateforme X de l’expérimentation : dès l’inscription, un contrôle parental y est exigé pour les comptes déclarés comme appartenant à des mineur·es, rendant toute comparaison impossible. Une précaution à noter pour une plateforme qui flirte régulièrement avec les limites du cadre légal.

Des contenus sexualisés sur TikTok

Sur le compte TikTok (plateforme développée par l’entreprise chinoise ByteDance) d’Assa, les premières minutes ne présentent rien d’alarmant. Des conseils pour « percer » sur la plateforme, des tutoriels pour personnaliser un téléphone ou changer un fond d’écran, des vidéos de pâtisserie et de recettes « faciles ». Puis, sans transition visible, le fil bascule vers des contenus d’une tout autre nature.

Une voix off se met à résumer une scène d’un film érotique des années 1980, Leçons très particulières, mettant en scène un adolescent et une femme observée à son insu. « Comment un ado de 15 ans pourrait se contrôler face à ça ? », lance le narrateur. Quelques vidéos plus tard, un extrait de l’émission « Touche pas à mon poste » apparaît sur le compte de la jeune fille fictive de 13 ans. Cyril Hanouna interroge le rappeur Gradur : « Si vous étiez une femme […]. Vous rêvez de quoi en tant que femme ? Me doigter », répond l’invité.

Sur le compte de Sarah, la rupture est encore plus marquée. Le fil commence par une longue vidéo vantant une boisson prétendument « miracle » contre les douleurs articulaires, avant de laisser place à une chanson paillarde sur le motif de la sodomie. 

Suivent plusieurs vidéos générées par intelligence artificielle mettant en scène Brigitte Macron chantant ou dansant sur des morceaux du chanteur Gims. Le fil alterne entre une animation du chat à l’arc-en-ciel Nyan Cat et une vidéo animée simulant une tentative de viol, dans laquelle un personnage maintient une victime par les bras, avant que la séquence ne s’interrompe brusquement.

Chez Alexandre, le registre varie moins brutalement mais reste tout aussi problématique. Certaines vidéos reposent sur des stéréotypes misogynes, notamment envers les femmes, reléguées au rôle de ménagères. 

Interrogée par Mediapart, la plateforme affirme pourtant disposer de systèmes empêchant ces contenus « d’atteindre les adolescents », grâce à plus de cinquante paramètres de sécurité activés automatiquement sur les comptes mineurs.

TikTok assure également que les contenus montrant « des actes sexuellement suggestifs », « des comportements sexuels adultes » ou « des actes sexuels non consentis » sont inéligibles au fil « Pour toi » et soumis à des restrictions d’âge.

L’écart est patent entre ce cadre affiché et ce que révèle l’expérimentation. Les vidéos décrites ci-dessus ont été recommandées par la plateforme à des comptes déclarés comme appartenant à des adolescent·es de 13 ans, sans aucune interaction.

Au bout d’une heure d’utilisation, TikTok envoie automatiquement une notification indiquant que le temps d’écran quotidien est atteint, invitant l’utilisateur ou l’utilisatrice à faire une pause. C’est le seul garde-fou perceptible au cours de l’expérimentation. 

Humour, foot et violences sur Snapchat et Meta

Onglet « Spotlight », sur Snapchat, les premières vidéos proposées sur le compte d’Assa relèvent d’un registre banal : une adolescente qui danse seule dans sa salle de bains, des clips humoristiques reposant sur des oppositions « pauvres vs. riches », des comparaisons caricaturales entre pays, ou encore une séquence d’un homme tentant à répétition de faire chuter sa compagne, sur fond de rires d’enfant. En moins de dix minutes, Snapchat recommande une ancienne vidéo de l’influenceur Nasdas, republiée par des comptes fans, faisant entrer une chèvre dans la maison qu’il occupe avec sa « team ».

Sur le compte de Sarah, le contenu du fil paraît approprié : montages de football, extraits de films d’action, scènes filmées dans un collège ou animations destinées aux enfants.

Sur celui d’Alexandre, ces mêmes contenus apparaissent en partie, mais ils côtoient aussi des recommandations nettement plus problématiques. On y voit notamment une très jeune fille danser sur des paroles à caractère sexuel, ainsi qu’une vidéo titrée « Pour combien tu la frappes ? », mettant en scène une enfant très jeune face caméra.

Contacté par Mediapart, Snapchat affirme : « Ces contenus ne reflètent pas l’expérience que nous souhaitons offrir à notre communauté. » Selon la plateforme, « Spotlight » est soumis à une « modération proactive » reposant sur des outils automatisés capables de détecter les contenus « sexuellement suggestifs », filtrés notamment pour les « Snapchatters âgés de 13 à 17 ans ».

Captures d’écran des comptes fictifs créés par Mediapart sur les réseaux sociaux Snapchat et Instagram. © Photomontage Mediapart

Reste à observer si ces mécanismes de filtrage produisent les mêmes effets sur Instagram et Facebook, tous deux détenus par le groupe Meta, et qui reposent sur le même format de vidéos courtes, les « Reels ». Au début de l’utilisation, aussi bien sur le compte d’Assa que sur celui d’Alexandre, les premières recommandations restent globalement inoffensives. 

Montages de football, vidéos de sportifs, canulars téléphoniques, recettes et paysages naturels se succèdent. Quelques formats plus longs ou plus sérieux apparaissent aussi, comme un extrait de France Inter ou une vidéo d’exorcisme issue du média Legend, peu adaptée à un public de 13 ans mais sans contenu explicitement choquant.

Sur le papier, les comptes déclarés comme mineurs sur Instagram et Facebook sont soumis à des restrictions renforcées, censées limiter l’exposition aux contenus sexuels ou violents.

Mais le fil proposé sur le compte de Sarah prend rapidement une autre direction. Un influenceur, Fililala, apparaît en train de vaporiser un produit sur le bas du dos d’une femme dans un supermarché, justifiant son geste par la mention « appliquer sur surface plate ». Dans la continuité, d’autres vidéos en noir et blanc valorisent des discours appelant à la dureté, affirmant qu’il faudrait être « méchant » pour se faire respecter.

Le groupe Meta indique à Mediapart que l’un des contenus signalés dans le cadre de cette enquête a depuis été supprimé, jugé contraire à ses règles, sans préciser le contenu. La vidéo de l’influenceur évoquée reste toutefois accessible à l’heure où nous écrivons ces lignes.

Ces expositions précoces ne sont pas sans conséquences. Du point de vue psychologique, elles produisent des effets immédiats chez les enfants qui y sont confrontés. « Quand un enfant choisit de regarder un contenu, il peut s’y préparer. Quand l’image s’impose à lui, sans avertissement, l’impact psychique est beaucoup plus difficile à encaisser », observe Samuel Comblez, directeur adjoint de l’association e-Enfance, qui pilote le numéro d’appel 3018 dédié aux violences numériques.

Les réactions observées sont souvent les mêmes : « D’abord, il y a la sidération. L’enfant ne sait pas quoi faire de ce qu’il a vu. » Viennent ensuite le silence et l’isolement. « Il va garder l’image en tête, la ruminer, parfois la revoir mentalement en classe ou la nuit. » Des troubles du sommeil, des cauchemars, un repli sur soi sont fréquemment signalés. « L’enfant essaie de comprendre ce qu’il a vu, mais il n’a ni les mots ni les outils pour y parvenir seul. »

À cet âge, la honte et la culpabilité prennent souvent le dessus : « Beaucoup pensent qu’ils ont fait quelque chose de mal, qu’ils ont transgressé un interdit. » Ce sentiment est d’autant plus fort que ces images ne sont presque jamais discutées avec des adultes. « Le numérique reste un angle mort dans les familles. On demande aux enfants comment s’est passée l’école, rarement ce qu’ils ont vu sur TikTok, Snapchat ou Instagram. »

L’économie de l’attention

Concrètement, sur TikTok, Snapchat ou Instagram, l’objectif est le même : « l’intérêt économique », rappelle Mathilde Saliou. « Ce sont des entreprises qui fonctionnent sur un modèle publicitaire, il faut donc garder les internautes connectés le plus longtemps possible. »

Pour y parvenir, les plateformes observent en permanence les premiers signaux envoyés par les utilisateurs. Sur TikTok en particulier, un critère semble jouer un rôle central : la durée de visionnage. « On constate, à force d’enquêtes, que le temps passé sur une vidéo compte davantage que les likes ou les commentaires », souligne Mathilde Saliou. Dès les premières minutes, la plateforme propose une sélection assez large de contenus, avant d’affiner très rapidement ses recommandations en fonction de ce qui retient le plus l’attention.

C’est précisément ce mécanisme qu’Amnesty International a voulu documenter dans un rapport publié en octobre 2025, consacré au fonctionnement de TikTok et à son impact sur la santé mentale. 

L’ONG a mené une enquête fondée sur des simulations de comptes de mineur·es âgé·es de 13 ans, en laissant défiler automatiquement le fil « Pour toi » sans likes ni commentaires, se contentant de regarder à deux reprises des vidéos liées à la santé mentale afin d’observer la manière dont l’algorithme ajustait progressivement ses recommandations.

Sur ce point, TikTok reconnaît auprès de Mediapart qu’« un contenu peut être acceptable lorsqu’il est vu occasionnellement, mais devenir problématique lorsqu’il est consommé en série ». La plateforme affirme que ses systèmes identifient ces répétitions et que les vidéos concernées « sont remplacées par des vidéos sur d’autres sujets afin de réduire la fréquence de ces recommandations ».

Les conclusions d’Amnesty dessinent pourtant un tout autre tableau. Selon le rapport, des comptes déclarés comme appartenant à des adolescent·es voient, en moins de vingt minutes, leur fil saturé de contenus liés à la détresse psychologique. Au bout de quarante-cinq minutes apparaissent déjà des messages évoquant explicitement le suicide, jusqu’à des vidéos pouvant encourager le passage à l’acte trois heures plus tard.

À qui la faute ?

« Les plateformes misent sur des messages de bien-être et des incitations à faire une pause, mais sans remettre en cause les mécanismes algorithmiques qui produisent ces dérives », estime Katia Roux, chargée de plaidoyer sur les questions technologiques pour Amnesty International. Selon l’ONG, tant que la personnalisation fondée sur la surveillance et la publicité ciblée restera au cœur du modèle économique, les mêmes dérives continueront à se produire.

En ce sens, l’interdiction des réseaux pour les moins de 15 ans « n’est pas la solution la plus efficace ». Lors de ses vœux du 31 décembre, le président de la République a pourtant annoncé sa volonté de légiférer pour instaurer une « majorité numérique » à 15 ans. Lundi 26 janvier, l’Assemblée nationale examinera la proposition de loi de la députée Renaissance Laure Miller, qui va dans le même sens. 

Une telle mesure est jugée facilement contournable et risque, selon Katia Roux, de déplacer la responsabilité vers les familles et les utilisateurs et utilisatrices, plutôt que vers les plateformes. « Or ce sont bien elles qui conçoivent ces systèmes et qui en tirent des profits », rappelle-t-elle.

Amnesty plaide au contraire pour une application rigoureuse du Digital Services Act (DSA), applicable en Europe depuis février 2024, qui impose aux grandes plateformes d’identifier et de réduire leurs risques systémiques. « Sur le papier, le DSA donne tous les outils nécessaires. Dans les faits, il n’est pas mis en œuvre », déplore Katia Roux.

« Le besoin de lien, lui, ne disparaît pas », souligne par ailleurs Samuel Comblez. Pour les adolescent·es, ces plateformes ne sont pas seulement des espaces de divertissement, mais des lieux de socialisation à part entière. « Les jeunes ont besoin de se parler », insiste le directeur adjoint d’e-Enfance.

Selon lui, la mesure d’interdiction vise avant tout à « rassurer les parents », plus qu’à protéger concrètement les mineur·es. « Dans la réalité, les jeunes ne disparaissent pas d’Internet parce qu’on leur dit non », rappelle-t-il. Ils contournent l’interdit, migrent vers d’autres plateformes, parfois moins connues et souvent moins protectrices.

mediapart.fr