L’IA, nouvel opium du peuple démocratique ?

Voire fin de la démocratie ?

L’intelligence artificielle est appelée à s’immiscer dans la majeure partie de nos interactions numériques. Avec sa capacité à produire instantanément un « baratin » plausible adapté aux préférences de chacun, quels sont les risques que l’intelligence fausse nos interactions sociales, voire mine nos démocraties ? Par

** **

En mars 2016, Microsoft met en ligne un chatbot appelé Tay. Dans les 16 heures qui suivent, Tay se met à tweeter des messages racistes et sexistes : des utilisateurs provocateurs ou mal intentionnés avaient délibérément manipulé l’algorithme en l’alimentant de propos offensants[1]

En mars 2018, le Guardian et le New York Times révèlent qu’une entreprise de communication anglaise, Cambridge Analytica, soutenue par le propagandiste américain d’extrême droite Steve Bannon et financée par le milliardaire ultraconservateur Robert Mercer, avait déployé un algorithme de profilage politique de plus de 220 millions d’américains, en bonne partie sur base de données Facebook acquises de façon douteuse[2]. Selon Cambridge Analytica, leur méthode « psychographique » permettrait de personnaliser les messages politiques sur base du profil psychologique de chaque personne. Cette méthode a été utilisée lors de la campagne présidentielle américaine de 2016, même si son efficacité reste contestée.

En mars 2022, une vidéo apparaît en ligne présentant le président Zelensky appelant les troupes ukrainiennes à déposer les armes[3]. Il s’agissait d’un « deepfake », une vidéo générée par intelligence artificielle qui reconstitue la voix, le visage et l’expression d’une personne prononçant n’importe quel texte. Bien que ce faux fût encore grossier, la qualité de ces techniques a rapidement évolué pour devenir maintenant difficile à identifier par le grand public.

Le discours façonne le réel

Ces exemples récents d’utilisation problématique de l’intelligence artificielle témoignent à la fois de sa présence dans nos vies mais aussi de dangers qu’elle fait craindre. De plus, la plupart des experts s’accordent à considérer que nous n’en sommes qu’au début. Avec une capacité à construire des textes, des images, des vidéos – bref des réalités alternatives – l’IA ne va pas seulement développer des univers parallèles, elle va façonner le réel. En effet, les humains sont des êtres qui imaginent le monde avant de le vivre[4]. Qui contrôle les imaginaires, oriente les humains.

On sait combien par exemple la guerre en Ukraine fait l’objet, à côté de la vraie guerre des corps mutilés, d’une guerre des imaginaires sur le conflit. Gagner la bataille des imaginaires est dès lors un enjeu fondamental pour gagner un conflit armé traditionnel. On peut perdre une guerre sur le champ de bataille, et la gagner dans les imaginaires. Lors de la bataille des Thermopyles (480 av. J.-C), 300 Spartiates et leurs alliés furent certes vaincus par l’immense armée perse de Xerxès, mais leur courage et leur sacrifice ont inspiré des générations et symbolisent la résistance face à une force tyrannique jusque dans le cinéma contemporain.

Souvent ce sont les imaginaires qui demeurent dans l’histoire ou à tout le moins dans celle que les gens se racontent ou que les vainqueurs tentent d’imposer. Dans cette perspective, les IA et ceux qui les contrôlent sont en passe d’affecter de façon majeure la formation de l’opinion, et donc d’orienter la volonté des peuples en construisant des narrations massivement diffusées.

La propagande n’a certes rien de neuf, mais ce qui distingue l’IA, c’est sa capacité via les canaux digitaux à affiner un discours différent pour chaque personne, créant ainsi pour chacun une bulle de réalité alternative personnalisée, sans socle de réalité partagée. Et ce de façon continue au détour de chacune de nos interactions numériques. L’impact de l’IA ira également plus loin que celui de la propagande classique car elle imprègne tous les aspects de la réalité digitale : de comment nous préparons un voyage à quels partenaires nous rencontrons ou à comment notre travail est dirigé et contrôlé.

L’illusion de l’objectivité

Les conséquences politiques de l’intelligence artificielle vont plus loin encore[5]. Non seulement l’IA (couplée ou non au robot selon les cas) remplacerait l’ouvrier dans des tâches répétitives et jugées fastidieuses ou pénibles, mais elle pourrait également remplacer l’expert en offrant des propositions de décision jugées « objectives ». Une évaluation récente de ChatGPT-4 s’enthousiasme que la productivité des consultants d’un grand bureau de consultance stratégique serait fortement boostée par l’intelligence artificielle[6].

Ce sont ces consultants qui conseillent les plus grandes entreprises et nos décideurs politiques, et influent ainsi sur une myriade de décisions qui impactent chacun. Dans cette perspective, on oublie souvent que l’intelligence artificielle reflète inévitablement les orientations données par ses concepteurs, que ce soit délibérément ou non. En quelque sorte, il y a une boîte noire sous-jacente à l’IA, une forme de subjectivité masquée du design et du designer de ce type d’outil technologique puissant.

Mais plus encore, en éludant la dimension politique au nom de l’efficacité et de l’objectivité de l’IA, on pourrait nous pousser à faire abstraction du débat politique et de la délibération, puisque « l’IA s’en charge rationnellement et sans préjugés » entend-on dans certains cercles technophiles[7]. Le risque est de se retrouver face à une « technocratie sous anabolisants » où la technique est vue comme une nouvelle vérité, impartiale, supérieure à l’inévitable imperfection du débat des humains.

Débat ou simulacre démocratique ?

Or précisément, en abandonnant à l’intelligence artificielle ce rituel qu’est le débat politique, ce moment essentiel qui fait que nous sommes des communautés humaines, nous cédons une partie de ce qui nous rend humains. C’est dans ces divergences, c’est dans ces rapprochements par le débat, c’est dans ces imperfections créatrices, que se déploie l’humanité. Le moment délibératif, avec son émotion, mais aussi ses argumentations, ses joutes oratoires, ses discours construits, ses disputatio à l’atterrissage imprévisible, sont précisément le lieu d’une humanité qui se pense ensemble : tâtonnante, manquant de cohérence, minée par les rapports de force, les compromis et les injustices. Le pire des systèmes à l’exception de tous les autres. Pas de démocratie sans tension permanente entre les valeurs et volontés des citoyens dont la résultante détermine les choix politiques.

De plus, l’IA n’est pour l’instant souvent que simulacre donnant l’apparence d’intelligence – c’est-à-dire de la capacité à comprendre – sans réelle compréhension de son propre discours. En son cœur, un modèle comme ChatGPT ne fait qu’anticiper le prochain mot d’une phrase. C’est la version géante de l’algorithme de saisie automatique de nos SMS. Alimenté par des milliards de documents, cette méthode élémentaire crée des discours apparemment cohérents. Cependant, le résultat est l’apparence de plausibilité – et non la véracité. Ces algorithmes sont pour l’instant des « baratineurs » ultimes, incapables de distinguer baratin et vérité.

L’utopie de la matrice

Il est déjà difficile de s’extraire de ces bulles de filtres sur internet où nous sommes constamment alimentés de contenus confortant nos préférences et préjugés. Qu’en sera-t-il quand ces IA – pilotées par les plus puissants d’entre nous – commenceront à créer de toutes pièces des « réalités » fragmentées ? On sait combien l’humain préfère parfois voir la réalité qu’il souhaite que la réalité telle qu’elle est. À chacun son assistant IA, voir son compagnon, qui médiera chaque interaction numérique.

Quelle chemise mettre pour un rendez-vous ? Un cadeau d’anniversaire à la mode pour moins de cinquante euros ? Est-ce que je dois faire régime ? Comment changer de sexe ? Comment lutter contre la solitude ? On peut se poser la question de savoir au service de qui seront vraiment ces IA. De leurs utilisateurs ? Ou plutôt d’un système économique ou politique ? Quel sera le prix à payer pour notre santé mentale ?

L’intelligence artificielle ne pourrait-elle pas être une forme de drogue travestissant la réalité pour la rendre acceptable voire désirable ? Un « lieu » où voir ce que nous souhaiterions être le réel pour fuir psychiquement et mentalement un réel non désiré, ou pire encore un lieu où voir uniquement ce que les nouveaux dominants nous donneront à voir, une réalité désirable ad hoc façonnée par une logique de domination devenue plus invisible encore, et plus difficile à combattre dès lors. Nous ne serions alors pas très loin du film Matrix. Une forme de mythe de la caverne de Platon, mais où la caverne serait juste une perception cognitive du monde orientée et biaisée par l’intelligence artificielle. Bref, une forme d’enfermement autistique sur la réalité du monde, une matrice sans la matrice. À ce moment-là, serions-nous encore des humains ?

** **

Olivier Servais, professeur d’anthropologie à l’UCLouvain, et Yves Moreau, professeur d’ingénierie à la KU Leuven, pour Carta Academica (https://www.cartaacademica.org/).

Les points de vue exprimés dans les chroniques de Carta Academica sont ceux de leur(s) auteur(s) et/ou autrice(s) ; ils n’engagent en rien les membres de Carta Academica, qui, entre eux d’ailleurs, ne pensent pas forcément la même chose. En parrainant la publication de ces chroniques, Carta Academica considère qu’elles contribuent à des débats sociétaux utiles. Des chroniques pourraient dès lors être publiées en réponse à d’autres. Carta Academica veille essentiellement à ce que les chroniques éditées reposent sur une démarche scientifique.

** **

Notes

[1] https://www.lemonde.fr/pixels/article/2016/03/24

[2] https://www.lesoir.be/146945/article/2018-03-22

[3] https://www.lesoir.be/430609/article/2022-03

[4] Castoriadis C., l’Institution imaginaire de la société, Seuil, 1975

[5] On a déjà des premières réflexions antérieures à l’IA sur ces questions, notamment sur l’impact politique des algorithmes : Rouvroy, A. & Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation : Le disparate comme condition d’individuation par la relation ? Réseaux, 177, 163-196 

https://doi.org/10.3917/res.177.0163

[6] https://www.forbes.com/sites/danpontefract

[7] Kurzweil R., The Singularity is Near, New York: Viking Books, 2005