RadioPlus IA et armée

Emission du Lundi 17 février 2025 « L’Air du Temps »; https://www.radioplus.fr/ ; 104,3 FM

Intervention du collectif ACCAD à partir de 9h 40 environ

** **

Depuis que s’est ouvert à Paris, le sommet de l’IA et suite à cette semaine de l’IA qui vient de se dérouler, on ne parle plus que de cela, dans tous les médias … Chacun y va de son analyse… il est vrai que dans le domaine de la Médecine, elle offre des avancées significatives en améliorant les diagnostics et en accélérant la recherche de médicaments … Mais à contrario, 67% des français la perçoivent comme une menace avec une méfiance en hausse … Il est vrai que les défis éthiques et sociaux posés par l’IA soulèvent des questions sur ses impacts sur le droit humain et à mon sens sur beaucoup d’autres choses …. Est-elle vraiment un outil puissant pour le progrès ou un vecteur de risques ?

La semaine dernière, vous nous avez présenté l’IA comme un désastre pour notre environnement et il est vrai que comme le déplorait un lecteur de La Voix du Nord, c’est un sujet qui n’est pas abordé par nos politiques …. Autre chose dont on entend peu parler … c’est que l’IA est de plus en plus utilisée par les militaires …. Parce que l’IA, c’est aussi ça : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché … Vous aviez déjà abordé le problème, la semaine dernière et aujourd’hui, vous avez le temps de nous en dire un peu plus

Il faut savoir que le numérique sert d’abord à la guerre. Les algorithmes des réseaux sociaux sont conçus pour maximiser à tout prix la participation des internautes, pour permettre et amplifier la diffusion de discours haineux, l’incitation à la violence, le har­cèlement en ligne et la censure de certains groupes menacés. C’est tout le sens du dossier remarquable élaboré par Amnesty International.

Pour « éliminer » le Hamas, Tsahal utilise des systèmes et des armes de pointe. Ce conflit a offert à l’armée israélienne une occasion sans précédent de déployer des technologies militaires basées sur l’IA.

Pour espérer contrer les attaques du Goliath russe, le David ukrainien n’a d’autre choix que de faire preuve d’ingéniosité. Face au surnombre, tant en termes d’armes que de troupes militaires, l’Ukraine mise beaucoup sur l’IA. Le conflit entre l’Ukraine et la Russie est de plus en plus perçu comme la première guerre de l’IA. Son application se fait dans des domaines très variés, que ce soit dans la planification d’attaques comme dans l’exécution de ces plans à l’aide de drones en passant par l’identification de criminels de guerre ou par la lutte contre la désinformation.

Microsoft et Google ne sont pas étrangers à cette utilisation militaire de l’IA, notamment dans la fourniture d’outils de surveillance et de guerre.

Ces outils démontrent comment l’IA est militarisée contre des populations civiles, soulevant des préoccupations urgentes en matière de responsabilité et de respect du droit humain et du droit international.

Est-ce-que l’IA pourrait éviter, lors de conflits, des pertes humaines ou est-ce le contraire ?

L’IA sert principalement à faire la guerre, donc n’évite certainement pas des pertes humaines.

Il faut savoir que, en date du 14 février, après 470 jours de guerre par Israël et au 27ème jour de trêve, on dénombre plus de 159.915 morts et blessés à Gaza. A Gaza, les Forces d’Occupation Israéliennes ont tué au moins 48.239 Palestiniens dont plus de 17.881 enfants et 12.316 femmes, on y compte plus de 111.676 blessés, 14.222 personnes disparues, et 2.000.000 citoyens déplacés. En Cisjordanie dont Jérusalem, on dénombre 920 morts dont 188 enfants, plus de 6.500 blessés et 14.300 personnes arrêtées dont 1.065 enfants. Un certain général n’hésite pas à sacrifier 200 personnes et à admettre que parmi ces victimes il n’y avait que 10 personnes connus comme appartenant au Hamas.

Les différentes formes d’IA sont développées et déployées partout dans le monde.

Dans le Golfe persique, l’Arabie saoudite, les Émirats arabes unis ou encore l’Iran intègrent l’IA par le biais de gigantesques contrats passés avec la Chine.

En Ukraine, à Gaza, en mer Rouge, en Libye, les conflits en cours s’accompagnent d’une utilisation de plus en plus massive de l’IA pour le repérage, le ciblage, la précision et la rapidité des tirs sur le champ de bataille.

En Ukraine, les grandes entreprises de l’IA s’impliquent dans divers secteurs technologiques de pointe en soutenant la continuité d’activité de l’État, grâce aux constellations satellitaires de Starlink qui assurent la connexion du pays.

En Chine et aux États-Unis, des budgets colossaux sont investis dans l’« intelligentization des armées »

Et la militarisation de l’IA ne se limite pas aux zones de conflit : Les outils utilisés à Gaza – drones, systèmes biométriques et capteurs basés sur l’IA – sont en grande partie développés par des entreprises technologiques occidentales et de plus en plus utilisés dans les pays occidentaux sous prétexte de « sécurité ».

La reconnaissance faciale et les systèmes de surveillance basés sur l’IA sont de plus en plus utilisés de manière disproportionnée contre des groupes vulnérables, en violation du droit à la vie privée et en accentuant les biais existants. Ces technologies favorisent souvent le profilage discriminatoire, marginalisant davantage des individus déjà en situation de précarité.

Avez-vous des exemples ?

On a déjà mentionné l’utilisation de l’IA dans la guerre à Gaza ou en Ukraine. Il ne faut pas oublier les violences ethniques contre la communauté tigréenne en Éthiopie ou contre les Rohingya en Birmanie, et rappeler ce qui se passe dans la région autonome du Rojava en Syrie au détriment des populations kurdes..

Il y a un élément qu’il ne faut pas oublier dans la fabrication de l’IA. On a besoin de beaucoup de métaux. Cela explique la situation qui paraît très compliquée au Congo. L’est du Congo est riche en cassitérite, en wolfram, ou tungstène et en or ; sans oublier le cobalt, le lithium, le coltran, le cuivre et l’uranium. Depuis la première guerre de 1996, ces minerais occupent une place dans ce qu’on peut appeler une économie de guerre, une économie militarisée qui perdure à ce jour. En ce moment, le Rwanda, administré par les Tutsis – qui avaient subi un génocide en 1994 – soutient le mouvement M23 pour récupérer à son profit les richesses du Kivu, territoire très riche en métaux à l’est du Congo. On est en pleine guerre des métaux, pour le compte de puissances étrangères (USA, Chine, Russie, UE, Inde).

Avec ce que vous nous décrivez, on a l’impression de se retrouver dans un film de science-fiction ou alors, c’est « Apocalypse now » Et justement, cette Intelligence artificielle qui est présentée comme un levier de croissance, suscite-t-elle en matière militaire, suscite-t-elle des critiques et des inquiétudes éthiques et stratégiques ?

Des armes sont aujourd’hui capables, seules, sans intervention humaine, d’attaquer des cibles. Capables de décider de qui vit et de qui meurt. Une machine ne devrait pas pouvoir décider de la vie ou la mort d’une personne. Des négociations pour faire évoluer le droit international sur la question de lautonomie des systèmes darmes sont essentielles. Car cest un ensemble de droit qui est menacé par ces armes autonomes.

Si les systèmes d’armes autonomes commencent à être déployés par les armées dans des situations de conflit comme en Ukraine, l’adoption de ces techno­logies par les forces de l’ordre n’est plus très loin. Cela pose des questions sur ce qui devrait être le fondement de la démocratie ; c’est à dire le droit à la vie, à la liberté et à la sécurité de la personne, le droit de ne pas être soumis à la torture et à d’autres peines ou traitements cruels, inhumains ou dégradants, ain­si que le droit à la liberté de réunion pacifique. Ces méthodes décrites sapent les principes d’une application de la loi res­pectueuse des droits humains, qui reposent sur des relations humaines entre les agents chargés de son application et le public qu’ils servent.

On peut donc noter à tous les niveaux une absence d’un dialogue significatif sur la militarisation de l’IA.

Si on est technophiles, voire technolâtres, si on croit au progrès technologique tel qu’il se présente actuellement, on est dans une impasse totale et dramatique et on peut craindre pour l’avenir de l’Homme qui sera complètement transformé. Si on pense qu’il faut développer d’abord et réfléchir ensuite – comme le suggérait un ancien secrétaire d’État chargé du numérique sous E. Macron –, on se prépare des lendemains qui ne chanteront pas. Voici d’ailleurs ce que disait récemment E. Macron : « si on régule avant d’innover, on se coupera de l’innovation » ; « On veut accélérer, on veut réduire l’écart ». Si on va dans ce sens, on a du souci à se faire.

Mais comment lutter contre ce rouleau compresseur qu’est l’IA, ralentir la cadence, tout en reconnaissant ses opportunités et ses atouts ?

Des voix commencent à se manifester dans le monde – notamment dans des structures éducatives – pour montrer l’envers de la médaille de l’IA tellement glorifiée en ce moment. Ces voix sont peu nombreuses. Elles existent. Il faudra s’appuyer dessus. Utopique ? Peut-être ! En tout cas, c’est dans ce sens-là que nous nous battons.

En tout cas, ces préoccupations soulignent la nécessité d’un cadre réglementaire et éthique solide pour guider le développement et l’utilisation de l’IA dans le domaine de la défense, afin d’assurer une intégration responsable et sécurisée de ces technologies … mais personnellement, je pense que qui croit à cela est un parfait utopiste.

Merci pour votre clarté et vos explications sur ce sujet complexe …. D’autant plus complexe que tout cela va rester … comme on dit … « Secret Défense » …. et il y a encore beaucoup de choses à mettre sur la table concernant les dessous de cette Intelligence artificielle et j’ose espérer que vous serez encore là, avec moi, un de ces jours pour en continuer l’analyse …