
X et TikTok accordent “une prime aux contenus radicaux, en particulier d’extrême droite”
Un rapport publié le 10 mars révèle que les algorithmes des deux réseaux sociaux favorisent les contenus politiques radicaux. “Si ce biais est avéré, le jeu est faussé, la démocratie est en danger”, alerte l’activiste pour les droits numériques Xavier Brandao.
* *
À droite, toute. Mi-février, une étude publiée dans la revue scientifique Nature démontrait que le réseau social X privilégie les contenus conservateurs. À la veille du premier tour des élections municipales françaises, People vs. Big Tech – un réseau de surveillance des géants de la tech rejoint par 149 organisations dans le monde – enfonce le clou. Dans un rapport publié mardi 10 mars, il observe que les algorithmes de X et de TikTok favorisent les contenus de personnalités et partis radicaux, en particulier d’extrême droite, au détriment de comptes plus modérés. « Être confronté de manière répétitive à certains discours participe à normaliser leurs points de vue », selon Xavier Brandao, activiste pour les droits numériques auprès de People vs. Big Tech.
Pourquoi avoir scruté les algorithmes de X et de TikTok ?
X est un réseau social en perte de vitesse mais reste très utilisé par les politiques. Tandis que TikTok monte en puissance et devient aussi un outil de communication politique. À l’approche des élections municipales, avant la présidentielle de 2027, il est donc important de surveiller ce qu’il se passe sur ces plateformes.
Nous voulions observer quels contenus sont recommandés à un compte nouvellement créé qui s’intéresse au débat politique. Nous avons créé trois comptes X et trois comptes TikTok d’utilisateurs abonnés à des comptes politiques de droite ; et trois comptes X et TikTok d’utilisateurs sensibles aux contenus de gauche. Nous avons dénombré les publications de partis ou personnalités politiques français montrées à ces douze comptes entre le 23 et le 27 février. Au bout de quelques jours, nous avons obtenu un échantillon de ce que proposent les algorithmes de X et de TikTok. Ce rapport constitue un faisceau d’indices. Le but est que les régulateurs s’en saisissent et creusent ces pistes.
Quelles sont vos observations ?
Nous notons une prime aux contenus plus radicaux, en particulier d’extrême droite. Sur X, 59 % des publications politiques proposées aux utilisateurs plus proches de la droite viennent de l’extrême droite (56 % sur TikTok). Pour les utilisateurs de X proches de la gauche, 54 % des publications politiques proposées viennent de la gauche radicale (44 % sur TikTok). À l’inverse, nous remarquons la faible représentation des publications des personnalités et partis politiques considérés comme modérés, centristes.
De plus, nous n’observons pas de corrélation claire entre la popularité d’un compte et la mise en avant de ses publications. Par exemple, le compte X d’Emmanuel Macron fait partie des plus populaires de la plateforme (10,3 millions d’abonnés) ; pourtant, ce n’est que le vingt-huitième compte politique le plus montré à nos nouveaux utilisateurs. Tout cela nous amène à penser qu’il existe un biais. Nous ne sommes pas dupes, le modèle économique des plateformes repose sur l’engagement des utilisateurs. Or, les contenus extrêmes font réagir.
Pourquoi ce biais est-il préoccupant ?
Nous nous informons de manière croissante sur les réseaux sociaux. Or, la technologie n’est jamais neutre. Être confronté de manière répétitive à certains discours participe à normaliser leurs points de vue. Si ce biais algorithmique est avéré, que des candidats sont favorisés au détriment d’autres, le jeu est faussé, la démocratie est en danger.
À un an du scrutin présidentiel en France, nos garde-fous ne sont pas à la hauteur.
Bien sûr, même si les réseaux sociaux ont un poids à relativiser dans les choix électoraux, un scrutin peut parfois se jouer à quelques voix et donc à quelques publications bien placées… Par exemple, lors des élections présidentielles en Roumanie en 2024, un candidat loin d’être favori, devenu populaire sur TikTok, est arrivé en tête du scrutin [avant que celui-ci ne soit invalidé par la Cour constitutionnelle pour cause d’ingérence russe via le réseau social, ndlr].
Comment y remédier ?
En France, l’Arcom est le régulateur, mais n’a qu’un poids minime face à ces plateformes. À l’échelle de l’Union européenne, il existe depuis 2022 le Règlement sur les services numériques, censé encadrer les grandes plateformes. Les citoyens, les organisations, les acteurs politiques peuvent s’en saisir. Nous n’excluons d’ailleurs pas de le faire à la suite de nos observations. À ce titre, les plateformes ont le devoir d’évaluer les risques (d’ingérence, de biais algorithmiques…), de les communiquer et de les atténuer. Les plateformes pourraient favoriser un pluralisme algorithmique, permettre aux utilisateurs de mieux comprendre et maîtriser leur fil de publications proposées.
Or, elles jouent rarement le jeu, restent très opaques, notamment sur le fonctionnement de leurs algorithmes, invoquant le secret des affaires, la protection des données. À un an du scrutin présidentiel en France, nos garde-fous ne sont pas à la hauteur. Des lois strictes encadrent les temps de parole dans les médias traditionnels, mais sur les réseaux sociaux, c’est le Far West. Nous recommandons des injonctions à plus de transparence ou, à défaut, des sanctions financières fortes.
telerama