
IA, technofascisme et guerre
https://lundi.am/Comment-survivre-a-l-intelligence-artificielle
Extraits
Là où la méta-automatisation introduite avec l’intelligence artificielle générative tend à enfermer l’indéterminé dans la prévision calculable, la métatechnique humaine – située, relationnelle, historique – ouvre des brèches dans l’inconnaissable. Il n’existe aucun apprentissage profond capable d’émuler cette ouverture radicale, car elle n’est pas fonction, mais seuil.
Le terme « intelligence artificielle » (IA) couvre différents domaines et dénominations. Dans cet essai, quand je parle d’IA, au singulier ou au pluriel – entendant dans ce second cas les diverses implémentations actuelles comme ChatGPT, Deepseek ou Claude – je me réfère, sauf indication contraire, à l’intelligence artificielle générative appliquée spécifiquement au langage : la famille de techniques qui, en appliquant des modèles de machine learning à d’énormes datasets, produit de grands modèles de langage (LLM), c’est-à-dire des modèles linguistiques capables de créer de nouveaux contenus. Pour clarifier métaphoriquement la relation entre ces éléments :
- Le Dataset est la bibliothèque universelle de textes, la matière première.
- Le Machine Learning est la méthode d’étude qui permet d’apprendre de cette bibliothèque.
- Le LLM est le résultat de ce processus : un « esprit » expert qui a intériorisé les règles du langage.
- L’IA Générative est la capacité de cet esprit d’agir de manière créative, en générant des textes originaux.
- Le Chatbot est l’interface conversationnelle avec l’IA, qui utilise le langage naturel.
Pour des définitions plus détaillées, voir le Glossaire à la fin de l’essai.
PRÉAMBULE
La brochure américaine des années 1950 How to Survive an Atomic Bomb ne fut pas seulement un manuel pratique : il transformait le cauchemar nucléaire de la Destruction Mutuellement Assurée en une séquence d’actions individuelles et gérables, offrant à l’individu une illusion de contrôle et d’agentivité face à une menace qui le dépassait.
Avec l’intelligence artificielle (IA), la dynamique change : nous ne sommes pas face à une catastrophe possible, mais immergés dans une catastrophe déjà en cours. Dans les discours dominants, on oscille souvent entre des narrations opposées et simplifiées : l’IA comme menace de domination des machines, comme promesse salvatrice capable de remédier au chaos vers lequel le capitalisme nous conduit, ou comme outil transhumaniste de renforcement destiné à créer une nouvelle élite « augmentée ». Les choses ne sont probablement pas ainsi, et c’est pourquoi il me semble opportun d’entamer une enquête pour affronter l’ensemble des phénomènes complexes générés dans ce nouveau contexte où l’IA est entrée dans le paysage quotidien.
Cet essai veut jeter les bases d’un discours plus large, en adoptant une approche spécifique et en limitant pour le moment l’analyse à des lignes d’enquête centrales. Il s’agit de directions qui n’épuisent pas le tableau d’ensemble, mais qui permettent de commencer à tracer un parcours.
Comme approche, nous nous proposons d’affronter politiquement, socialement et économiquement ce saut technologique en adoptant une perspective qui prend la physique quantique comme cadre réel de la nature, en dépassant l’illusion d’un modèle purement newtonien. En cohérence avec cette orientation quantique, nous adoptons une méthodologie « diffractive », qui entrelace les références du matérialisme historique avec celles des nouveaux matérialismes.
Le premier pas est de situer l’IA dans le contexte historique. Comme toute technologie, elle ne naît pas dans l’abstrait, mais se développe dans des conditions historiques, politiques et socio-techniques précises, jusqu’à s’infiltrer dans presque chaque sphère de la vie – même si, malgré les investissements considérables et les proclamations tonitruantes (de Trump vers le bas), son modèle économique capitaliste reste loin d’être consolidé.
Le corps de ce texte est constitué d’une analyse de l’IA comme réalité relationnelle articulée en deux perspectives complémentaires. Dans l’une, on examine les dynamiques, les modalités et les responsabilités à travers lesquelles l’IA est modelée, constituée et façonnée : qui la construit, avec quels intérêts, dans quels rapports de pouvoir, selon quelles logiques extractives ou distributives. Dans l’autre perspective, on enquête sur les phénomènes qui se produisent dans sa progression envahissante, ces effets qui excèdent l’utilisation intentionnelle de la part des humains et qui émergent de l’interaction complexe entre algorithmes, infrastructures matérielles et contextes sociaux et écologiques.
Ces deux aspects ne sont pas disjoints mais profondément entrelacés. Leurs connexions se produisent dans l’espacetempsmatière, cette dimension où espace, temps et matière constituent un continuum inséparable. De plus, l’IA est une incarnation parfaite du caractère inséparable entre dimension matérielle et dimension discursive, étant à la fois infrastructure physique concrète et production incessante de langage. Abandonnée aux technofascistes, elle est gonflée démesurément dans les deux directions — infrastructures écocidaires d’un côté, narrations complaisantes de l’autre — jusqu’à exploser comme une bombe atomique confortable et lèche-bottes.
L’épilogue cherchera à identifier comment générer, à partir des signaux qui se manifestent déjà, les déviations infinitésimales capables de soustraire Gaïa – et nous en elle – à la trajectoire cauchemardesque qui la submerge.
APPROCHE : SORTIR DES SCHÉMAS NEWTONIENS
Il n’existe pas de définition scientifique univoque de « l’intelligence », pourtant dans la rhétorique courante, l’IA est souvent contrainte entre la réduction à un simple algorithme statistique et, à l’opposé, la représentation d’une menace surhumaine.
Ces oppositions, fondées sur la logique compétitive qui oppose les intelligences des machines à celle humaine comprise au sens individuel — ignorant toute forme d’intelligence collective et plus-qu’humaine — s’avèrent trompeuses et doivent être contestées.
Elles reposent sur un schéma newtonien qui imagine les êtres humains comme des entités déjà constituées, porteuses d’une subjectivité et d’un savoir prédéterminés, tandis que les machines – longtemps conçues comme des objets déjà donnés, gouvernés par des lois causales et manipulables de l’extérieur – tendent aujourd’hui à être considérées comme potentiellement ingouvernables, dotées d’une autonomie qui échappe au contrôle humain.
C’est la même logique d’une ontologie anthropocentrique qui en Occident plonge ses racines dans la Grèce antique et qui, à l’époque historique du capitalisme, a produit des processus sociaux et matériels entrés dans une phase d’accélération exponentielle et destructrice.
Au XXe siècle, le matérialisme historique a renversé les explications idéalistes de l’histoire, en déplaçant le focus sur les conditions matérielles, les rapports de production et la lutte des classes. Cependant, dans certaines de ses versions les plus orthodoxes et scientistes – surtout lorsqu’elle était considérée comme une doctrine ou un modèle prédictif – elle a conservé maintenu une orientation déterministe liée au paradigme mécaniciste du positivisme, avec des lois « scientifiques » comme celle sur la baisse tendancielle du taux de profit et l’effondrement du capitalisme.
Cette tension entre déterminisme et transformation est illustrée par Carlo Rovelli dans Helgoland, quand il rappelle le conflit entre Lénine et Bogdanov :
La révolution russe, argumente Bogdanov dans les années turbulentes qui suivent cette révolution, a créé une structure économique nouvelle. Si la culture est influencée par la structure économique, comme l’a suggéré Marx, alors la société post-révolutionnaire doit pouvoir produire une culture nouvelle qui ne peut plus être le marxisme orthodoxe conçu avant la révolution…. Bogdanov prédit que le dogmatisme de Lénine gèlera la Russie révolutionnaire dans un bloc de glace qui n’évoluera plus, étouffera les conquêtes de la révolution et deviendra sclérotique. Paroles prophétiques, elles aussi.
Après le bras de fer gagné par Lénine – dans un affrontement qui n’était pas un simple différend théorique mais investissait toute la conception de la révolution et de son organisation qui aurait conduit au stalinisme – la mécanique quantique s’affirma, fruit du travail collectif de Heisenberg, Bohr, Schrödinger et autres, qui renversa la vision déterministe de la physique classique, presque pour donner raison à Bogdanov.
Les phénomènes qui constituent la réalité que nous percevons ne suivent pas des schémas mécanistes, mais émergent de réseaux complexes selon des dynamiques d’indétermination tout comme les technologies numériques avancées, qui échappent à toute tentative de les réduire à des schémas linéaires.
Il devient urgent de dépasser le dualisme entre sujet et technique : humain et machine n’existent pas comme entités séparées, mais se co-constituent dans l’interaction. Marx saisit les machines comme cristallisations de rapports sociaux et de travail accumulé, mais resta principalement lié à une vision où elles apparaissaient comme des objets déjà constitués par le travail humain, plutôt que comme des entités qui se constituent relationnellement dans l’usage et le contexte.
Par la suite, Simondon pressentit que les machines ne sont pas des objets fixes mais des processus en devenir, définis par les réseaux de relations dans lesquels ils s’insèrent (« Individus techniques définis par des réseaux de relations »). En réélaborant cette intuition, nous pouvons voir les machines comme le résultat de pratiques concrètes et de discours qui s’accumulent dans le temps, portant avec eux des choix politiques et des responsabilités humaines précises. Elles ne sont pas des entités fixes : elles prennent forme seulement dans les interactions qui les mettent en action.
Il ne s’agit donc pas d’opposer l’IA à l’utilisateur humain comme deux entités séparées : ce qui compte, c’est l’entrelacement de relations qui implique personnes, algorithmes, infrastructures matérielles, logiques économiques et dispositifs politico-sociaux. C’est dans cet espace qu’émergent les dynamiques décisives pour comprendre comment l’IA agit et subit l’action.
L’enquête doit alors se concentrer tant sur les effets concrets et symboliques générés par les rencontres entre humains et IA, que sur les orientations politiques et les responsabilités déjà incorporées dans les systèmes technologiques qui modèlent ces rencontres.
En ce sens, l’approche diffractive de Karen Barad offre un outil précieux. La métaphore est physique : quand une onde rencontre un obstacle, elle se diffracte en générant de nouvelles formes (patterns) d’interférence. Appliqué à la pensée, cela signifie ne pas s’arrêter à la dynamique biologique du reflet – reconnaissance, imitation, empathie médiées aussi par les neurones miroirs – ni à celle, culturelle, de la réflexion, qui tend de toute façon à nous restituer ce que nous connaissons déjà, mais s’ouvrir plutôt à des interférences productives, à des décompositions capables de générer des trajectoires inattendues.
Cela vaut aussi pour la pratique politique contemporaine, y compris celle de gauche, souvent piégée dans le schéma du « déjà connu ». La diffraction permet au contraire de réorienter pensée et pratiques, en transformant les conditions mêmes de ce qui peut arriver dans les interactions entre humains et machines.
Une approche diffractive nous amènera à interpréter l’intelligence artificielle non comme simple miroir social, ni seulement comme automation au service du capital de ce savoir collectif que Marx appelait general intellect. L’IA a au contraire un rôle actif dans la production de la réalité avec nous et au-delà.
Cela signifie aller au-delà de la dénonciation des préjugés sur l’IA comme simples reflets de biais humains contenus dans les données d’entraînement] – dénonciation qui se réduit souvent à la suggestion de correctifs techniques ou de meilleurs filtres.
Ou encore : qui définit ce qu’est une réponse « naturelle » ? Et comment l’interaction entre utilisateur et dispositif crée-t-elle des significations imprévues, non réductibles aux seuls inputs initiaux ?
De cette manière, l’approche diffractive met aussi en évidence les effets des interactions entre humains et IA : elle montre comment les choix de conception, les décisions politiques, les pratiques sociales et les données incorporées dans le système influencent concrètement les résultats, en rendant visibles des responsabilités qui autrement resteraient cachées. Plus généralement, elle met en lumière comment cette co-production ne se limite pas à organiser la subdivision du travail productif dans le capitalisme contemporain, mais contribue activement à la formation et au maintien d’ordres sociaux, de hiérarchies cognitives et de configurations écologiques : quels corps (humains et non-humains) sont valorisés ou écartés, quels savoirs légitimés ou réprimés, quels métabolismes énergétiques et matériels sont imposés à Gaïa.
SITUER L’IA DANS LE CONTEXTE
…
** **
Glossaire
Chatbot
Interface applicative conversationnelle qui permet aux utilisateurs d’interagir avec un système d’IA générative (typiquement un LLM) en utilisant le langage naturel. C’est l’assistant qui médie le dialogue entre l’homme et l’« esprit » du modèle.
Dataset (Ensemble de Données)
Collection structurée de données, souvent textuelles, qui constitue la matière première pour l’entraînement des modèles. C’est l’archive passive et brute dont le système apprend. Métaphoriquement, c’est la bibliothèque universelle.
Deep Learning (Apprentissage Profond)
Branche du machine learning qui utilise des réseaux neuronaux artificiels avec de nombreuses couches (« profondes »), capables d’élaborer des représentations toujours plus abstraites et complexes des données. C’est l’architecture qui a rendu possibles les récentes avancées dans le traitement du langage.
IA Générale (AGI — Artificial General Intelligence)
Hypothèse d’une intelligence artificielle dotée de capacités cognitives générales, capable d’apprendre et d’agir dans n’importe quel domaine comme ou mieux que l’être humain. Elle reste une perspective pseudo-théorique, au centre de débats scientifiques, éthiques et politiques.
Intelligence Artificielle (IA)
Champ interdisciplinaire de l’informatique qui s’occupe de créer des systèmes capables d’accomplir des tâches qui typiquement requièrent l’intelligence humaine. C’est un terme parapluie qui rassemble toutes les méthodes et les concepts énumérés ci-dessus.
Intelligence Artificielle Connexionniste
Approche de l’IA basée sur des réseaux neuronaux artificiels, inspirée du cerveau biologique, dans laquelle l’information est élaborée à travers des nœuds interconnectés. Elle constitue le paradigme dominant et le fondement du deep learning, des LLM et de l’IA générative.
Intelligence Artificielle Générative
Catégorie de systèmes d’IA, basés sur des LLM, spécialisés dans la création de contenus originaux et cohérents–comme des textes, images ou code–en réponse à un prompt. Elle incarne la fonction créative du modèle.
Large Language Model (LLM)
Modèle linguistique de grandes dimensions, produit de l’entraînement (via deep learning) sur d’énormes datasets. Sa capacité fondamentale est de prédire le mot suivant dans une séquence, habileté dont émergent des compétences complexes comme l’écriture, la traduction et le raisonnement. C’est l’esprit expert résultant du processus d’apprentissage. Exemples : GPT (OpenAI), Claude (Anthropic), Gemini (Google).
Machine Learning (Apprentissage Automatique)
Ensemble de techniques qui permettent à un système d’apprendre des schémas et des règles à partir de grandes quantités de données (dataset), en améliorant ses propres performances sans être explicitement programmé pour chaque tâche. C’est la méthode d’apprentissage systématique.
Prompt
L’instruction, la question ou le texte introductif fourni par l’utilisateur à un système d’IA générative pour initier ou guider la génération d’un contenu. C’est l’input qui détermine l’output du modèle.