Et pourquoi donc ?
« Réglementer l’IA peut sembler une bonne idée, mais je ne crois pas que ce soit possible, notamment en raison de l’insatiable curiosité des scientifiques. Ils se fichent éperdument des réglementations. Même chose pour les forces militaires. La concurrence entre les grandes puissances – États-Unis, Chine, Russie, etc. – rend absurde cette régulation. Peu importe la réglementation mise en place, tous les complexes militaro-industriels devront presque par essence l’ignorer, car ils ne voudront pas rester à la traîne. »
– Jürgen Schmidhuber, ingénieur informatique, spécialiste des réseaux de neurones artificiels
Nous repartageons ici un article des camarades de l’Association Française Contre l’Intelligence Artificielle (AFCIA) qui fait le point sur les vaines tentatives de régulation de l’IA entreprises au niveau européen et mondial ces dernières années.
L’article est structuré en trois parties :
– Un récapitulatif des avantages et risques potentiels de l’IA
– Une analyse critique des initiatives actuelles pour une régulation de l’IA
– La conclusion que l’AFCIA en tire
Voir ci-dessous
Sans surprise, l’AFCIA rejoint dans sa conclusion le constat fait par Jürgen Schmidhuber dans le documentaire iHuman : l’intelligence artificielle et nous (2019) et reproduit ci-dessus. Un constat partagé par ATR.
« En conclusion, ce que montrent ces tentatives de régulation récentes, c’est que personne n’est prêt à mettre en place un véritable système international de régulation de l’IA, seul capable d’empêcher la course folle aux IA de plus en plus puissantes sans aucun contrôle. Il y a pourtant un consensus assez large sur les dangers de l’IA, aussi bien au niveau des chercheurs que des gouvernements, comme l’a montré la déclaration de Bleetchley. Mais les logiques de compétition entre les États, sur le plan militaire aussi bien qu’économique et sécuritaire, sont telles que les plus puissants, USA en tête, refusent toute régulation contraignante. Ce qui est particulièrement significatif, c’est que les domaines militaires et sécuritaires sont exclus d’emblée de tous les textes en négociation. Ils y sont fortement encouragés par les géants de la Tech, dont l’idéologie libertarienne s’accommode mal de toute régulation publique qui pourrait réduire leurs profits et surtout leur liberté d’action. »
Theodore Kaczynski le démontre longuement dans le chapitre premier de Révolution Anti-Tech, « le développement d’une société ne peut jamais être soumis à un contrôle humain rationnel ». La mise à l’arrêt et le démantèlement du système technologique sont les seules armes en notre possession pour éviter le pire.
antitechresistance.org/
** **
Pourquoi nous ne croyons pas à la régulation de l’IA
Lorsque nous présentons notre association, la question qui nous revient est souvent : mais pourquoi êtes-vous « contre » l’IA ? Après tous, l’IA peut rendre des services très utiles, comme toute technique elle peut être mise au service du bien aussi bien que du mal, ne faut-il pas plutôt se battre pour qu’elle soit encadrée par des règles définies au nom de l’intérêt général ?
L’idée est certes séduisante, mais la réponse que nous faisons est en substance : non, nous ne croyons pas que la mise en place d’une telle régulation ne soit possible et ni réaliste à court et moyen terme, compte tenu du monde dans lequel nous vivons. Entre temps, les progrès de l’IA sont de plus en plus rapides et les tentatives de régulation qui se mettent timidement en place seront toujours en retard d’une guerre, même si aujourd’hui tout le monde ou presque appelle de telles régulations de ses vœux. Quant à l’autorégulation par les acteurs de la tech, c’est un mythe perdu d’avance, au mieux une douce illusion, au pire de la propagande, ou comme disent les anglo-saxons de l’« ethical washing »
Nous allons développer ci-dessous :
– Un récapitulatif des avantages et risques potentiels de l’IA ->
– L’analyse critique des initiatives actuelles pour une régulation de l’IA ->
– La conclusion que nous en tirons ->
Avantages et risques potentiels de l’IA
Pour commencer notre démonstration, dressons d’abord un tableau rapide des avantages potentiels de l’IA (ou des usages des IA, pour être précis), et des risques qu’elle représente .
Du côté des avantages attendus par les optimistes, on peut lister :
- L’élimination des taches fastidieuses, la réduction du temps de travail nécessaire pour vivre, et à terme abolir le travail « obligé » (ce qui irait de pair avec la mise ne place d’un revenu d’existence universel).
- Ceci permettrait de développer la créativité, la liberté, donner du temps pour la vie sociale, l’art, la découverte.
- L’utilisation de l’IA « pour le bien », par exemple pour la médecine, pour suivre et prédire les phénomènes météorologiques de grande ampleur, pour restaurer des livres anciens.
- Certains pensent, en allant plus loin que l’IA serait beaucoup plus efficace que les gouvernements humains, si on lui confiait le pouvoir politique, pour sauver la planète et limiter l’impact de nos activités sur la biosphère.
Du côté des risques, on peut lister :
- Perte d’autonomie, dépendance
- Croissance des inégalités et du chômage
- Désinformation
- Menace sur les droits fondamentaux, en particulier celui à la non-discrimination
- Terrorisme
- Usages militaires de l’IA (Robots tueurs affranchis de tout contrôle humain)
- Surveillance généralisée/ contrôle social
- Fin de la démocratie; Dictature d’une techno-oligarchie
- Risques existentiels/ systémiques d’asservissement d’homo sapiens, voire de disparation (divergence)
Tout le monde ne s’accorde pas sur tous les risques cités, mais il y a consensus sur les risques en termes de désinformation, terrorisme, surveillance généralisée et extension du contrôle social entraînant la fin des démocraties. Bien que cela ne soit pas toujours explicite, il y a aussi une inquiétude avec le pouvoir croissant d’une poignée de milliardaires de la tech alliés aux capitalisme financier transnational et aux appareils militaro-sécuritaires, et le risque qu’ils ne prennent le pouvoir sous forme d’une dictature techno-oligarchique.
Il y a également une préoccupation, bien qu’elle soit moins citée, avec l’utilisation croissante de l’IA par les militaires, avec l’avènement de robots tueurs dont on est très proche (mais on s’y résigne, en se disant que si ce n’est pas le fait des bons gouvernements de l’axe du bien, les méchants le feront de toute façon). La ligne rouge a déjà été franchie depuis juin 2022 en Ukraine et à Gaza, devenus des laboratoires de la guerre du futur pour le plus grand bonheur des GAFAM. Le risque de perte d’autonomie des humains est mis en avance par les humanistes et par tous ceux qui s’inquiètent des ravages des écrans et du monde virtuel sur les individus et sur la société. Il est beaucoup moins cité par les entreprises de la tech et par les gouvernements. Les citoyens sont préoccupés par le risque de croissance des inégalités et du chômage, mais il est totalement nié par les tenants de l’establishment et de l’industrie de la tech, qui nous promettent des lendemains qui chantent. Enfin last but not least, les risques existentiels pour l’humanité, qui résulteraient d’effets systémiques non anticipés d’IA toujours plus puissantes (ce que certains dénomment al divergence) font l’objet de féroces controverses, certains chercheurs les qualifiant de fantasmes ou de propagande orchestrée par les milliardaires de la tech, d’autres (et non des moindres, nous le verrons plus bas) les considérant comme plausibles.
Les pistes actuelles de régulation
Suite à la sortie publique de ChatGPT et des premières IA génératives, les appels et initiatives à une régulation de l’IA se sont multipliés. Citons notamment :
- L’ appel de 1000 experts de la tech pour un moratoire sur le développement des nouvelles IA – 29 mars 2023
- La déclaration internationale de Bleetchley – 2 Nov. 2023
- Un appel international des chercheurs américano-chinois à Pékin 11 mars 24
- La déclaration de l’ONU – mars 2024
- l’ AI Act Européen – juin 2024
- La loi SB 1047 Californie – 28 août 2024 (en attente de promulgation)
- Convention du conseil de l’Europe sur l’IA – Sept 2024-
Nous allons maintenant analyser ces diverses initiatives dans l’ordre chronologique (sauf l’appel des 1000 déjà largement commenté).
La déclaration de Bleetchley
La déclaration de Bleetchley est le résultat d’une conférence à huis clos, organisée par le gouvernement britannique en Novembre 2023. Cette conférence ii a réuni les représentants de 28 pays parmi les plus développés, notamment États-Unis, Chine, UE. Ont également participé des représentants du « big tech » ainsi que des spécialistes de l’IA reconnus. La liste des participants inclut notamment:
- Rishi Sunak, premier ministre du Royaume-Uni
- Ursula von der Leyen, présidente de la Commission européenne
- Antonio Guterres, secrétaire général des Nations unies
- Kamala Harris, vice-présidente des États-Unis
- Charles III, roi du Royaume-Uni (par visioconférence)
- Elon Musk, PDG de Tesla, propriétaire de Twitter, SpaceX, Neuralink et xAI
- Giorgia Meloni, première ministre italienne
- Sam Altman, PDG d’OpenAI
- Geoffrey Hinton, spécialiste de l’intelligence artificielle
- Yoshua Bengio, spécialiste de l’intelligence artificielle.
Au terme de ces deux jours, que dit la déclaration ?
Au niveau des risques, elle affirme que : « Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. Il convient de se pencher sur la question de la défense des Droits de l’homme, de la transparence et de l’explicabilité, de l’ équité, de la responsabilité, de la réglementation, de la sécurité, du contrôle et de la surveillance humaine appropriée, de l’éthique, de l’atténuation des préjugés, de la protection de la vie privée et des données.
Des risques substantiels peuvent découler d’une mauvaise utilisation intentionnelle ou de pertes de contrôle involontaires liés au non-alignement de l’IA sur les intentions humaines.
Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prévoir. Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d’IA d’avant-garde peuvent amplifier des risques tels que la désinformation.
Il existe un potentiel de dommages graves, voire catastrophiques, qu’ils soient délibérés ou involontaires, découlant des capacités les plus significatives de ces modèles d’IA ».
Face à ces défis majeurs, que recommande la déclaration de Bleetchley ? Elle appelle vtous les acteurs concernés à développer leurs plans pour évaluer , mesurer et corriger les risques. Elle encourage les pays à construire leurs propres systèmes de contrôle et surveillance, adaptés à leurs contextes nationaux, et décide de soutenir un réseau de chercheurs internationaux pour étudier les risques de l’IA.
Par contre, pas un mot sur le besoin d’une régulation internationale, même minimum, comme par exemple les traités sur l’interdiction des armes biologiques et chimiques. Ce refus a d’ailleurs été confirmé par les États-Unis lors de la session de l’ONU consacrée à l’IA, ils ont fermement repoussé la proposition d’Antonio Guttierez de créer une agence de l’ONU sur l’IA, comme il en existe une sur l’énergie atomique
En gros, la montagne accouche d’une souris, on fait appel à la bonne volonté de chacun, entreprises ou gouvernements concurrents, pour intensifier l’évaluation des risques, sans aucune obligation de moyens ni de résultats.
L’appel de Pékin
Quatre mois plus tard, en mars 2024, des chercheurs de haut niveau américains et chinois se réunissent à Pékin, dans le cadre d’un dialogue international sur la sécurité de l’IA, pour ce qui semble être la suite de la proposition de créer un réseau international de chercheurs. (voir aussi notre article d’Avril 2024). Il s’agit notamment de Geoffrey Hinton, ancien directeur IA de Google, Yoshua Bengio, lauréat du prix Turing, Stuart Russell, pionnier de l’intelligence artificielle, Andrew Yao, doyen de l’institut interdisciplinaire des sciences de l’information à l’université de Tsinghua, et Hu Tie Jun, Président de l’Académie d’intelligence artificielle de Pékin.
Ils ont auparavant publié en Novembre un article qui explicite les risques de l’IA :
– Les dangers de développement d’IA sans contrôle seraient d’amplifier l’injustice sociale, d’éroder la stabilité sociale, et d’affaiblir notre compréhension partagée du monde qui est à la base de toute société. Elles pourraient encourager des activités criminelles ou terroristes à grande échelle. Dans les mains d’acteurs puissants, elles pourraient exacerber les inégalité globales, faciliter la guerre automatisée, développer la manipulation de masse et la surveillance généralisée.
– Le risque est évidement que des acteurs mal intentionnés donnent à des IA autonomes des buts dangereux. Mais même des développeurs bien intentionnés pourraient créer des systèmes qui poursuivent des objectifs indésirables, car personne ne sait comment aligner le comportement des IA avec des valeurs complexes
– Ces IA pourraient développer leurs propres stratégies, pour par exemple gagner la confiance de certains humains, obtenir des ressources financières, former des coalitions avec d’autres acteurs humains et avec d’autres IA. Ils pourraient copier leurs algorithmes sur d’autres serveurs pour éviter d’être effacés ou corrigés, écrire leurs propres programmes, et hacker les systèmes de communication, des banques, des gouvernements et des armées.
A noter ici, les risques de croissance des inégalités et des injustices, celui d’une réduction de notre capacité de compréhension partagée, de manipulation et surveillance généralisée sont explicités, de même que la concentration de pouvoir au main d’acteurs puissants. Les risques de guerre automatisée également. Mais ce qui est plus remarquable, c’est la description de la manière dont des IA avancées pourraient échapper au contrôle humain et finalement prendre le pouvoir. Ils insistent sur le fait que l’on ne comprend pas vraiment comment les IA avancés fonctionnent (on connaît les mécanismes de base bien sûr, mais le chemin de l’information jusqu’à l’output final n’est pas traçable, pas plus qu’on en sait comment fonctionne un cerveau même si on connaît le fonctionnement des neurones), ce qui explique que certains résultats sont imprévisibles. La seule manière de limiter ces risques, par définition mal connus puisque nouveaux, consiste selon eux à effectuer des campagnes d’essais intensifs, nécessairement longs et coûteux, qui vont alourdir considérablement le coût déjà élevé de l’entraînement des IA.
A Pékin les chercheurs publient à leur tour une déclaration, qui reprend de manière synthétique cette analyse des risques, et définit un certain nombre de lignes rouges à ne pas franchir.
Ils concluent avec des recommandations beaucoup plus ambitieuses :
« Des régimes de gouvernance complets sont nécessaires pour garantir que les lignes rouges ne sont pas franchies par les systèmes développés ou déployés. Nous devrions immédiatement mettre en œuvre l’enregistrement national des modèles d’IA et des cycles d’entraînement lorsqu’ils dépassent certains seuils de calcul ou de capacité. Les régulateurs nationaux devraient adopter des exigences alignées au niveau mondial pour empêcher le franchissement de ces lignes rouges.
Nous devrions prendre des mesures pour empêcher la prolifération des technologies les plus dangereuses tout en garantissant un large accès aux avantages des technologies de l’IA. Pour ce faire, nous devrions mettre en place des institutions et des accords multilatéraux pour régir le développement de l’AGI de manière sûre et inclusive, avec des mécanismes d’application pour s’assurer que les lignes rouges ne sont pas franchies et que les bénéfices sont largement partagés. »
En synthèse, ces chercheurs appellent à un accord international sur la régulation de l’IA, indispensable selon eux pour éviter une course technologique à la fois des acteurs privés et des militaires sans contrôle sérieux.
La déclaration des Nations Unies
…
Conclusion
En conclusion, ce que montrent ces tentatives de régulation récentes, c’est que personne n’est prêt à mettre en place un véritable système international de régulation de l’IA, seul capable d’empêcher la course folle aux IA de plus en plus puissantes sans aucun contrôle. Il y a pourtant un consensus assez large sur les dangers de l’IA, aussi bien au niveau des chercheurs que des gouvernements, comme l’a montré la déclaration de Bleetchley. Mais les logiques de compétition entre les États, sur le plan militaire aussi bien qu’économique et sécuritaire, sont telles que les plus puissants, USA en tête, refusent toute régulation contraignante. Ce qui est particulièrement significatif, c’est que les domaines militaires et sécuritaires sont exclus d’emblée de tous les textes en négociation. Ils y sont fortement encouragés par les géants de la tech, dont l’idéologie libertarienne s’accommode mal de toute régulation publique qui pourrait réduire leurs profits et surtout leur liberté d’action. Si l’on compare ce qui s’est passé avec l’invention de la bombe atomique et la domestication de l’énergie nucléaire, sans doute le seul exemple où il y a eu mise en place de régulation internationales via des accords internationaux de non-prolifération et la mise en place de l’AIEA en 1957xvi, aussi imparfaits soient-ils, cela n’a sans doute été possible que parce que tout le monde avait assisté aux conséquences dramatiques d’Hiroshima et Nagasaki. Le risque pour l’humanité était donc très concret et visible. Malheureusement, dans le cas de l’IA, si des risques majeurs se concrétisent un jour, entraînant un sursaut des superpuissances, il sera sans doute trop tard pour réguler.
La totalité de l’article :