Intelligence artificielle

Le meilleur des mondes !

Marianne : Lorsque l’on évoque les dangers de l’intelligence artificielle, le sens commun se représente des robots tueurs autonomes cherchant à anéantir l’humanité. Peut-on sérieusement envisager un tel développement de l’IA [intelligence artificielle] ou cela constitue-t-il un pur fantasme ?

Juliette Duquesne : Après plus d’un an d’enquête, il me semble que cette intelligence artificielle avec des robots tueurs autonomes, qui serait incluse au sein de l’IA dite forte, a très peu de risques d’aboutir. La plupart des chercheurs spécialistes de ces sujets me l’ont confirmé. Cette crainte d’une prise de pouvoir par les machines est pourtant attisée par ceux qui vendent de l’intelligence artificielle. Cette peur du futur permet aux Gafam (Google, Apple, Facebook, Amazon, Microsoft) de nous distraire des dangers actuels, plus insidieux, liés aux usages de l’intelligence artificielle.

 

Vous montrez dans votre enquête que l’IA est pour l’instant incapable de se passer de l’homme, notamment lors de la mise en place des algorithmes. Qui sont ces petites mains bien humaines cachées derrière l’IA ?

En plus des employés très diplômés qui réalisent les algorithmes, une multitude de petites mains permettent à l’intelligence artificielle de fonctionner en étiquetant, en répertoriant les données et en identifiant les images. Elles sont indispensables à différentes étapes, de la préparation des données à l’entraînement de l’algorithme. Nous avons recueilli des témoignages en Chine, au Burkina Faso, de microtravailleurs qui réalisent des tâches pour quelques centimes d’euros. Ces exemples aux quatre coins du monde démystifient une autre croyance : les machines n’ont pas remplacé les humains et elles sont loin d’être autonomes.

Deux secteurs sont aujourd’hui en pointe en matière d’IA : la défense et la finance. Pourquoi sont-ils à l’avant-garde de l’IA, plutôt que la santé par exemple, et quels sont les usages les plus problématiques qu’ils en font ?

Dès l’origine, les innovations dans le domaine de l’intelligence artificielle sont très liées au secteur militaire, à tel point que plusieurs chercheurs que j’ai interrogés craignent que leurs découvertes soient utilisées à mauvais escient. Et pourtant, ces outils ne sont pas toujours très efficients, voire même dangereux. Une étude a montré que le taux de victimes civiles tuées par des drones est dix fois plus élevé que celui des avions américains, notamment à cause du faible niveau de qualité des informations sur lesquelles reposaient les frappes des drones.

Concernant la finance, les correspondances entre ce qui a été mis en place il y a déjà quelques années dans la finance et ce que l’IA réalise en ce moment sur l’ensemble de la société m’ont frappé sur plusieurs points. Tout d’abord, les data scientists sortent des mêmes grandes écoles que les mathématiciens qui développent les algorithmes pour la finance. Autre similitude : les marchés financiers ont été envahis par les mathématiques.

Aujourd’hui, nous appliquons cette mathématisation à l’ensemble de la société, en ajoutant, comme sur les marchés financiers, la rapidité grâce aux ordinateurs. Plus un marché est liquide, plus les titres financiers peuvent être achetés ou vendus, n’importe où et à n’importe quel moment. Rassurante pour les investisseurs, cette liquidité très forte peut être néfaste, notamment pour les entreprises, car elle encourage les investisseurs à se concentrer sur le court terme. Malgré cette dangerosité, nous sommes en train d’étendre ce concept de « forte liquidité » à l’ensemble de la société par l’intermédiaire d’algorithmes : tout doit pouvoir être acheté à tout moment. Même la rencontre amoureuse doit être liquide.

Grâce à des formules mathématiques et des ordinateurs puissants, les financiers pensaient réussir à prévoir l’avenir et à répartir les risques. La crise des subprimes a montré le contraire : les produits financiers étaient si complexes que plus aucun acteur ne savait quels titres financiers il détenait. Les financiers ont fait confiance à ces mathématiques complexes, ils se sont déresponsabilisés. Aujourd’hui cette mathématisation et cette rapidité sont diffusées à l’ensemble de la société, avec peu de contrôle !

De nombreuses entreprises sont séduites par l’IA afin d’optimiser leur recrutement. Certains logiciels permettent de trier les CV et d’analyser le comportement d’un candidat lors d’un entretien. Pourquoi les grands groupes confient-ils désormais une partie du travail des RH [ressources humaines] aux machines et quelles sont les failles d’un tel dispositif ?

Ces outils sont utilisés afin de gagner du temps et de l’efficacité. Difficile de disposer d’études précises sur l’étendue de ces pratiques. En France, 11  % des directeurs de ressources humaines auraient déjà déployé des outils d’IA. Pourtant, ces logiciels sont peu évalués. Les programmes d’IA peuvent renforcer les biais et les discriminations.

Prenons l’exemple d’Amazon. En 2015, un algorithme était censé faciliter le recrutement. Or, il proposait davantage de CV d’hommes et, lorsqu’il proposait des femmes, elles étaient surqualifiées. L’IA procédait de cette façon car elle avait été entraînée sur des données historiques dans lesquelles les hommes étaient surreprésentés. Concernant les analyses de comportement ou de sentiments, les programmes d’IA sont également loin d’être performants. Certains demandent même un moratoire sur ces algorithmes.

Le crédit social chinois (sorte d’identité numérique qui permet d’évaluer les citoyens) inquiète beaucoup les Européens qui y voient la réalisation d’un projet proprement orwellien. Quelle est la réalité concrète du crédit social et a-t-on des risques de le voir arriver un jour en France ?

La Chine est la première dictature numérique au monde. Des outils numériques (reconnaissance faciale, QR code devant chaque maison…) servent à persécuter les Ouïghours, ce peuple musulman de la région de Xinjiang. Les témoignages recueillis sur ce sujet sont effroyables. Pour l’ensemble des Chinois, les outils technologiques sont également utilisés. Le crédit social est un système de points créé pour inciter les citoyens à mieux se comporter. Ces points peuvent augmenter ou diminuer. Toutes les personnes interrogées l’ont confirmé : aucune grande base de données centralisée n’a de critères uniformes au sein du crédit social ! Les moyens sont même très divers selon les régions, avec plus ou moins d’outils numériques.

Même si le crédit social n’est pas le programme d’IA souvent décrit en Occident, il n’en reste pas moins dangereux et dans la lignée du régime totalitaire communiste. Le crédit social a de nombreuses conséquences au quotidien. Les notes et les visages des Chinois sont affichés sur la voie publique. Les moins bien notés peuvent se voir refuser le droit d’acheter des billets d’avion. Espérons que ces systèmes ne se développent jamais en France. Mais des associations s’inquiètent des outils numériques toujours plus nombreux utilisés afin de nous surveiller.

Les nouveaux usages du numérique sont étroitement liés au développement de l’IA. Pourquoi cette fuite en avant (échanger toujours plus de données, toujours plus vite) est-elle un danger, que ce soit d’un point de vue écologique ou éthique ?

Au-delà des limites inhérentes à l’IA, la plus importante est sans aucun doute celle de la planète. Certains considèrent justement l’IA comme la solution pour résoudre les problèmes environnementaux, afin de calculer au mieux chaque usage, en oubliant parfois que le numérique n’est pas du tout immatériel. Même s’il ne s’agit pas de rejeter en bloc tous les usages de l’IA, ce technosolutionnisme résulte de notre pensée hors-sol.

Aujourd’hui, deux visions s’opposent : l’une souhaite changer de cap afin de construire un monde où l’humain comprend qu’il fait partie de la nature ; l’autre préfère continuer dans la même direction, jusqu’à imaginer quitter la Terre pour coloniser Mars.

Il serait intéressant de s’interroger, avant sa généralisation, sur l’intérêt social et écologique d’une innovation liée à l’intelligence artificielle. Impossible de faire de l’IA sans ordinateurs, sans infrastructures et donc sans électricité et sans consommation de multiples métaux. Certes, aujourd’hui, les programmes d’IA ne sont pas la partie la plus polluante du numérique. Mais les usages ne cessent d’augmenter. La demande de puissance de calcul en  IA double tous les trois ou quatre mois. Elle a été multipliée par 300 000 entre 2012 et 2018.

Une étude a montré que l’entraînement d’un modèle parmi les plus couramment utilisés émet autant de CO² qu’un aller Paris-Hong Kong en avion. Et plus nous utilisons de programmes d’intelligence artificielle, plus nous avons d’équipements (smartphones, capteurs…). Ce sont nos équipements, trop nombreux et trop souvent remplacés, qui sont de loin la source de pollution la plus importante dans le numérique. Émissions de gaz à effet serre, consommation de métaux et d’eau, le numérique est loin d’être immatériel !

Votre enquête démontre clairement, à travers de nombreux témoignages de spécialistes, que, loin des fantasmes, l’IA est souvent inefficace et néfaste. Dès lors, deux possibilités semblent s’offrir à l’homme : faut-il chercher à améliorer perpétuellement l’IA ou tout simplement y renoncer ?

Aujourd’hui, nous investissons des milliards d’euros dans l’intelligence artificielle, sans réfléchir aux risques écologiques et sociaux de ces technologies. Cette croyance en une technologie, panacée à tous nos maux, est particulièrement ancrée dans nos sociétés. Jusqu’où et dans quels objectifs nos usages de l’IA doivent-ils se diriger ? Dans quels secteurs pourrait-elle être bénéfique ?

J’ai remarqué qu’elle est souvent plus utile dans le cas d’usages très précis (détection de pannes dans les usines,…), plutôt que pour des solutions globales. Quels usages de l’informatique faudrait-il limiter pour des raisons écologiques ? Dans cet ouvrage, notre conclusion est qu’il faut limiter les usages, d’autant plus que ces programmes d’IA sont souvent employés pour cibler la publicité ou nous surveiller. Mais ces décisions devraient – avant tout – résulter de débats sociétaux, ce qui n’est pas le cas aujourd’hui.

 

marianne.fr