… par principe !
Article paru le 12 janvier 2017 !!!
** **
Rencontre avec Cédric Sauviat, président de l’Association Française contre l’Intelligence Artificielle, qui promeut l’arrêt des recherches dans ce domaine.
« Association française contre l’intelligence artificielle ». AFCIA. L’acronyme, dans sa radicalité, invite d’abord à la méfiance. L’association s’inscrit dans la lignée de tous ces grands mouvements technocritiques qui, de la lutte contre l’arme atomique aux fauchages anti-OGM, sont souvent caricaturés. À revers des discours qui présentent l’intelligence artificielle comme une réponse aux défis socio-économiques à venir, l’AFCIA tire la sonnette d’alarme : la course folle vers l’imitation du cerveau humain grâce aux machines serait synonyme de risques démesurés. Et il ne serait pas trop tard pour tout arrêter…
Je suis donc allé à la rencontre de Cédric Sauviat, le président de l’association. Polytechnicien, « admirateur des métiers de l’ingénieur », Cédric estime que la phase de « techno-béatitude » que nous traversons nous empêche de voir distinctement les dangers du nouveau paradigme technique qui arrive.
Mais qu’est-ce qui pousse un groupe d’individus à s’engager dans un tel combat ? À monter un site Internet, à rédiger tout un argumentaire contre ce qui pour beaucoup ressemble à la « marche du progrès » ? D’après Cédric, c’est d’abord la nécessité de combler un grand vide :
« J’ai découvert le concept de singularité technologique il y a plus de quinze ans. Puis, avec le développement du numérique, l’IA a pris une place importante dans les médias et la sphère économique. J’ai vite réalisé qu’elle serait différente de toutes les composantes technologiques que l’avenir allait nous réserver. J’ai aussi compris que si les comités éthiques existaient dans de nombreuses disciplines comme les biotechnologies, il n’y en avait pas sur l’intelligence artificielle. Pourtant, c’est un sujet autrement plus lourd de conséquences et de bouleversements radicaux de la condition humaine. L’association nous permet de manifester le fait qu’on peut être contre l’IA par principe et que c’est une position défendable. L’idée est aussi de déconstruire les arguments de ses promoteurs, de montrer en quoi leur approche n’est pas forcément légitime. »
« Cette fois, on remplace le cerveau humain. Il ne s’agit pas juste de tourner une vis ! »
Ne sachant pas où elles nous mènent, il faudrait donc interdire purement et simplement les recherches en intelligence artificielle… Derrière ce principe de précaution poussé à l’extrême, il y a des arguments forts. Ces mêmes arguments qui ont fait dire à Bill Gates, Stephan Hawkins ou encore Elon Musk que nous pourrions être en passe de réaliser « notre plus grosse bêtise » sur ce caillou perdu dans l’espace. Du coup, il m’a semblé indispensable de revenir sur la question de ces dangers qui, réels ou imaginaires, conduisent à une position aussi ferme :
« Il y a trois séries de questions : sociales, éthiques et technologiques. Au premier plan, la question du travail se pose : comment vivons-nous si des IA nous remplacent au travail ? On nous dit que seules les tâches laborieuses sont « remplaçables » et que c’est la marche de l’histoire, comme lors de la révolution industrielle. Mais cette fois-ci le scénario est différent, cette fois on remplace le cerveau humain. Il ne s’agit pas juste de tourner une vis ! »
Ce à quoi il faut ajouter que la révolution industrielle n’a pas été un grand pas en avant pour tout le monde. Comme l’explique l’historien François Jarrige dans son ouvrage Technocritiques, (une « contre histoire » de la technique), la technologie peut vite devenir un outil de pouvoir à même de domestiquer territoires et individus. C’est au même titre que l’intelligence artificielle ne peut pas être pensée « hors-sol » ou comme une technique tombée du ciel avec zéro effets ni retombées sur l’organisation socio-économique de nos sociétés.
Et ces retombées sont pour le moins controversées. Quand certains s’alarment, d’autres tracent un horizon d’espoir. Selon une étude du cabinet Accenture et de la société Frontiers Economics, (« Why artificial intelligence is the future of growth »), l’intelligence artificielle pourrait multiplier les taux de croissance d’ici à 2035, avec des poussées jusqu’à 40% dans certains pays. Pas de quoi convaincre Cédric, pour qui les débats économiques ne représentent qu’une partie seulement des questions posées par l’IA :
« Il y a un risque éthique. Ayant pour seul objectif de remplacer l’homme et de « régler tous ses problèmes », l’IA nuira in fine à la réalisation de soi. Il faut comprendre que les problèmes humains sont les garants du lien social. Les Lumières disent que l’homme est la mesure de toute chose. Non pas pour le glorifier, car on sait que l’homme est égoïste, ingrat et cruel, à commencer par les philosophes eux-mêmes. Mais parce que le sens de la vie est le combat de l’homme contre lui-même. C’est justement parce que rien n’est facile que nous avons besoin des autres, que nous construisons des sociétés avec des règles. »
À sa manière, l’AFCIA fait à l’intelligence artificielle un procès en « solutionnisme ». Le même procès que l’on retrouve chez Evgeny Morozov, dans sa critique des discours techno-prophétiques tenus par les hérauts de la Silicon Valley. Le chercheur pointe également les dangers de la « vie administrée » par des machines qui, selon lui, réduiraient substantivement l’autonomie des individus et leur capacité à prendre des décisions en conscience. Dans le viseur de Morozov : ces entrepreneurs qui voudraient résoudre toutes les questions sociales à coups d’applications mobiles. Applications qui elles, au moins, ne risquent pas de prendre la tangente…
« Ce n’est pas parce qu’une puissance de calcul est matérielle qu’elle ne pourra pas accoucher un jour d’une puissance immatérielle »
Comment ne pas évoquer, aussi, ce vieux fantasme de la perte de contrôle de notre « créature » ? L’intelligence artificielle menacerait-elle d’accoucher d’une bête immonde toute disposée à nous réduire en cendres ? Cédric ne balaie pas la légitimité de cette angoisse latente :
« Il y a un risque technologique qui est en effet assez proche d’un scénario de science fiction tel que décrit par Nick Bostrom. Une IA pourrait prendre le pouvoir, devenir malveillante, vouloir refuser qu’on l’arrête. Le présupposé derrière ce scénario est de dire que l’IA est tout à fait en mesure de faire émerger une conscience. Je considère que l’esprit est une émanation du calcul réalisé par des neurones (pour les cerveaux des vertébrés), et par des micro-processeurs (pour une intelligence artificielle). Ce n’est pas parce qu’une puissance de calcul est matérielle qu’elle ne pourra pas accoucher, un jour, d’une puissance immatérielle comme la pensée ou la conscience. »
À ce moment-là, je n’ai pas pu me retenir d’interrompre Cédric. Je me refuse totalement à penser l’Homme en ces termes. Nous ne sommes pas réductibles à des chiffres, ni à du code, et celui ou celle qui avancera le contraire a une bien piètre opinion de son espèce. Penser qu’il est possible d’égaler la conscience humaine est une lubie. Pour y arriver, il faudrait déjà en saisir l’essence, ce qui n’est pas gagné (comment pourrait-on recréer ce qu’on ne comprend pas ?).
« Nous ne pensons pas que l’on peut « réduire » l’humain à des chiffres. C’est un organisme avec des sens, ouvert à la sensibilité, qui a une dimension intellectuelle, corporelle, etc. La condition humaine résulte d’un arrangement complexe de toutes ces choses. Mais dénier à des organismes artificiels le pouvoir d’arriver à une forme de conscience est une hypothèse hasardeuse. Les gens qui considèrent qu’un ordinateur ne sera jamais capable de penser au même titre qu’un humain sont dans une sorte d’orgueil, ils considèrent que leur cerveau est le seul pouvant atteindre cette grâce. Pour moi, c’est farfelu. Avec nos quelques milliards de neurones, nous ne pouvons pas dire qu’un ordinateur qui en aurait mille fois plus ne pourrait pas les équivaloir d’un point de vue ontologique. »
« Une IA qui se perfectionnerait elle-même finirait par diverger du destin humain, avec des pouvoirs qui sont ceux des systèmes électroniques (réplication, ubiquité, résilience, etc.) »
L’hypothèse selon laquelle l’homme soit en train d’inventer quelque chose qui finisse par le dépasser est pour moi un paradoxe ontologique : nous fixons toujours les cadres de ce que nous créons. Une intelligence artificielle qui gagne au jeu de go, par exemple, ne fera jamais rien d’autre que… gagner au jeu de go. Et quand bien même un « point de singularité » interviendrait, pourquoi une machine voudrait ou devrait-elle ressembler à un humain ? Aurait-elle une conscience à mettre sur le même plan que celle de l’homme, ou plutôt une conscience encore indéfinie qui, justement, ne devrait pas être qualifiée de conscience ? Sur ce point, nous tombons plutôt d’accord avec Cédric :
« Considérer que des robots anthropomorphes qui vivent avec les humains représentent l’aboutissement ultime de l’IA est une niaiserie. Je suis dérouté quand j’entends que le robot d’Asimov est l’aboutissement de la technique. Une IA qui se perfectionnerait elle-même finirait par diverger du destin humain. Elle aboutirait à des conditions infiniment plus intelligentes que l’homme, avec les pouvoirs qui sont ceux des systèmes électroniques (réplication, ubiquité, résilience, etc.). Qui plus est, une telle intelligence n’aurait pas pour corps une enveloppe charnelle mais les milliards d’objets connectés qui jonchent nos infrastructures. Chacun d’entre eux serait pour elle une terminaison nerveuse. Par conséquent, les gens qui disent que puisque l’IA n’a pas de corps, elle ne pourra pas être similaire à l’homme doivent comprendre que son corps sera aux dimensions de la planète ! C’est ce que Nick Bostrom appelle la « super intelligence ».
« Quand j’étais jeune, des gens me disaient qu’on ne serait jamais capable de construire une voiture qui se conduit toute seule »
Un des grands soucis des questions autour de l’intelligence artificielle reste la complexité du domaine. Pour l’AFCIA, les questions éthiques sont trop souvent laissées aux scientifiques. Pour certains d’entre eux, le degré de connaissance du citoyen lambda serait trop faible pour donner une quelconque valeur à son opinion. Un casse-tête qui laisse béant tout un espace pour les spéculations. Pour Cédric, tant que nos perspectives ne seront pas claires et précises sur le futur de ces technologies, nous ne pourrons nous fier qu’au passé pour les penser :
uand j’étais jeune, des gens me disaient qu’on ne serait jamais capable de construire une voiture qui se conduit toute seule. C’est le cas aujourd’hui. En 1933, personne ne pensait que l’énergie nucléaire allait pouvoir être libérée, et ce fut le cas une décennie plus tard avec la pile atomique. Dans son ouvrage Le système Technicien, Jacques Ellul fait mention de ce paradoxe. Pour lui, des gens très intelligents manquent parfois juste d’un peu d’imagination : ils sont beaucoup plus facilement persuadés de ce qui n’est pas possible que de ce qui l’est. En fait, ils pointent juste leurs propres limites. C’est le cas de beaucoup de scientifiques et d’idéologues. »
En effet, il y a toujours le doute. La possibilité d’avoir raté quelque chose. Néanmoins, je perçois aussi les limites de cette démarche : à ne pointer que ce qui s’apparente aux dangers, ne risque-t-on pas d’échapper à la beauté de ces techniques, à leurs promesses de découvertes exponentielles (traitement du langage, reconnaissance d’images, médecine, robotique, sans compter les pics de productivité dans un nombre croissant de professions qui manipulent des corpus de données) ?
Sans sacraliser les techniques de l’intelligence artificielle, ce qui aurait attiré les foudres de Jacques Ellul (une bonne illustration avec Frenchweb dans cet article illuminé), ne pourrait-on pas tordre l’IA dans un sens qui nous conviendrait ? Devrait-on forcément tout arrêter comme le préconise le manifeste de l’AFCIA ?
« L’intelligence artificielle est dominée par des motifs financiers. Elle n’a rien de philanthropique »
Cédric Sauviat se fait direct dans sa réponse. Pour lui, l’intelligence artificielle est une course folle qui ne répond qu’à des désirs de domination. En filigrane, il y a ces impérissables histoires de concurrence de tous contre tous, avec le risque que cette fois-ci, la savonnette nous glisse des doigts :
« Pourquoi interdire purement et simplement l’intelligence artificielle ? Parce qu’on lui donne faussement un objectif de renforcement du bien-être pour cacher qu’elle est dominée par des motifs financiers. Elle n’a rien de philanthropique. Elle s’autoalimente tel le système technicien de Jacques Ellul, c’est-à-dire qu’elle n’a pas d’autres finalités qu’elle même. Elle répond ainsi à une pure volonté de puissance.
Mais il y a aussi cette conviction intime que lorsque l’on parle technique, l’ensemble de ce qui est créé finit toujours par être utilisé. La bombe atomique, par exemple. On nous dira que l’IRM, la conquête spatiale et tout un tas d’autres champs doivent beaucoup à l’atome. L’un ne va pas sans l’autre. Qu’en sera-t-il pour l’intelligence artificielle ?
« Toutes les autres techniques (biologiques, chimiques, nucléaires) sont contrôlables, par définition. L’intelligence artificielle, la vraie, ne l’est pas »
Passées ces considérations sur le « système » technologique dans son ensemble, l’association ne démord pas : non, nous ne serions pas capables de « gérer » une création informatique autonome puisque, par essence, elle nous échappera au moment même où nous réaliserons qu’elle nous a dépassés :
« On peut très bien être animé des meilleures intentions, mais il n’empêche que la technique vous mène par le bout du nez. La critique du progrès technique est un courant minoritaire dans l’opinion parce qu’on ne sait pas très bien par quel bout prendre la chose. Avec l’IA, on sait très bien ce qu’on fait : on remplace le cerveau humain. En interdisant ce « progrès » frénétique, vous rendez la possibilité au progrès technique d’évoluer à une vitesse que les hommes sont capables d’assimiler afin d’adapter leurs conditions sociales et économiques pour éviter des conséquences désastreuses. Quelles seraient ces conséquences ? Pour y répondre, il faut se demander quel est le seul facteur qui soit de nature à accélérer d’une manière hors de proportion les possibilités de contrôle politique et sociale de l’humain : c’est l’IA. Toutes les autres techniques (biologiques, chimiques, nucléaires) sont contrôlables, par définition. L’intelligence artificielle, la vraie, ne l’est pas. On veut marcher le plus vite possible vers quelque chose, mais sans savoir où l’on va. »
« On devient persuadé que le sens de l’histoire est celui-ci, et on met tout en oeuvre pour y arriver, c’est performatif »
Sans savoir où l’on va… Quand on en vient à titiller l’intelligence artificielle, les velléités d’un homme nouveau ne sont jamais loin. Allez savoir pourquoi, la conversation bifurque alors sur cet autre grand sujet discorde : le transhumanisme. Il faut dire que les frontières entre le projet d’augmentation de l’homme par la technique et celui de l’intelligence artificielle sont poreuses. Si les courants de pensée du transhumanisme sont épars, force est de constater que ceux qui défendent cette perspective avec acharnement voient aussi souvent d’un bon oeil l’IA, quand ils ne justifient pas la nécessité de suivre les deux directions en même temps pour « rester dans le coup » – s’augmenter technologiquement serait la seule manière de faire face aux machines intelligentes qui risquent d’aller plus vite que nous : la tautologie a de quoi filer la migraine…
Pour Cédric, ce double mouvement vers un hypothétique futur ultra-technologique est caractéristique d’une époque qui se cherche :
« Ce discours d’augmentation de l’humain par la technique couve une idéologie qui promeut la fuite vers « plus d’intelligence », sans se questionner sur ses effets. Mais il y a une faille, c’est la morale. Et la morale est justement ce qui est né de l’intelligence humaine. L’idéologie derrière le discours transhumaniste qui considère l’homme comme « une étape » est très bien décrite par Hannah Arendt. La philosophe a noté la parenté entre le régime nazi et le totalitarisme stalinien : ces idéologies expliquent l’évolution par des « lois naturelles », l’évolution vers la race supérieure pour le nazisme, la dictature du prolétariat pour le régime soviétique. Puis ces idéologies deviennent des dogmes scientifiques : on devient persuadé que le sens de l’histoire est celui-ci, et on met tout en oeuvre pour y arriver, c’est performatif. Ce que dit Arendt est saisissant car elle rappelle que les régimes totalitaires n’ont pas pour fonction d’aboutir à la domination des masses mais à ce que les hommes « deviennent superflus ». C’est-à-dire qu’ils s’effacent derrière la logique de l’histoire ! Il y a de ça chez les transhumanistes, tout comme chez les défenseurs d’une évolution mécaniste sans fin. »
Cédric ne manque pas de me signaler qu’il se veut un peu provocant avec cette dernière tirade. Son objectif, me dit-il, est avant tout d’ôter la fascination des esprits. De prévenir ceux qui s’empressent de rejoindre cette voie qu’ils participent à un projet dont les contours sont encore mal définis sur les plans éthique, technique et social.
Comment nier qu’à plusieurs reprises, la rigueur nous échappe dans cette conversation ? Comment ne pas reconnaître que ce sujet mérite bien plus que ces quelques échanges entre passionnés (concernés) à qui il manque une nécessaire justesse scientifique ? Comment ne pas voir non plus que le regard des sciences ne pourra pas échapper à celui de simples citoyens inquiets ?
Aux dernières nouvelles, l’AFCIA exposait ces vues sur l’IA à l’Académie des technologies et était auditionnée par le Sénat. L’association a également fait inscrire la question de l’intelligence artificielle à l’ordre du jour du comité d’éthique de l’Académie des sciences. Le chemin est donc celui des institutions. Reste à savoir qui financera un tel lobbying qui, par définition, risque de ne rien rapporter.