Intelligence artificielle

ChatGPT contre la pensée critique

Depuis sa commercialisation en novembre 2022, ChatGPT a comptabilisé plus de 4 milliards de visites. Si son succès est massif, son utilisation est sujet à débat. C’est le cas dans les mondes scientifique et académique, où les acteurs du milieux craignent un impact sur l’esprit critique, la construction des savoirs et les conséquences collectives qu’entraîne l’utilisation d’une telle technologie.

L’arrivée de ChatGPT puis ChatGPT-4 sur le marché semble avoir été accueillie comme celle du messie. ChatGPT est un modèle de traitement du langage naturel développé par l’entreprise américaine OpenAI. Il est entraîné sur une base de données textuelles importante, pour ensuite traiter et interpréter du texte et des données. De manière plus simple, il s’agit d’un robot conversationnel – autrement dit chatbot – grâce auquel un utilisateur peut faire des recherches, résoudre des problèmes et rédiger des textes. En accès libre, cet outil a rapidement été incorporé à d’autres technologies, à l’image du moteur de recherche Bing, ou encore de Climate Q&A, une « intelligence artificielle au service du climat » qui associe la base de données Giec et la technologie de ChatGPT. Face à toute cette effervescence, comment ne pas tester soi-même ce fabuleux bijou de technologie et découvrir par la même occasion comment sauver la terre des flammes du réchauffement climatique ? À commencer par trouver des solutions politiques à nos problèmes.

Après quelques essais et sans grande surprise, on constate que ChatGPT ne met en avant que des modes d’actions assez consensuels. La plupart sont individuels et peu conséquents. D’autres modes d’actions, tels que le sabotage, ne sont proposés que si on le demande explicitement à ChatGPT. Poser une simple question à ce chatbot ne suffit pas à obtenir une réponse complète et approfondie.

Les informations transmises sont limitées, parfois fausses et ne dépeignent qu’une partie du sujet abordé. Cela pose problème dans le rapport à la connaissance et à la transmission des savoirs induits par ChatGPT.

C’est justement ce qui inquiète dans les mondes académiques et scientifiques où la démocratisation de ChatGPT a entraîné une véritable levée de boucliers. En témoignent les nombreuses tribunes contre son utilisation dans ces cadres-là. Mais aussi, de manière plus large, dans le monde de la tech où un millier de personnalités et chercheurs réclament un arrêt de six mois dans le développements des intelligences artificielles pour « élaborer et mettre en oeuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée, qui sont rigoureusement contrôlés et supervisés par des experts externes indépendants. » Au-delà, des coûts énergétiques et environnementaux que génère l’industrie de l’intelligence artificielle, la limite de ChatGPT réside dans des questions éthiques, de rapport à la technique et aux connaissances.

Ce que ChatGPT fait à l’esprit critique

Anne Alombert, maître de conférence à l’Université Paris 8, et autrice de Schizophrénie numérique, identifie justement une grande limite à l’usage de ChatGPT : celle de la délégation de certaines de nos capacités, essentielles à la réflexion et à l’exercice de l’esprit critique. Pour la philosophe, un des risques principaux de l’utilisation de cette technologie serait « un court circuit, de nos capacités de mémorisation, de réflexion, d’interprétation, de rédaction. » Elle précise : « quand on délègue un certain nombre de fonctions, par exemple écrire un texte. Ça veut dire tout simplement qu’on ne s’entraîne plus à écrire. Or, il se trouve qu’écrire, c’est aussi penser d’une certaine manière, mettre en oeuvre toutes sortes de fonctions cognitives et intellectuelles, par exemple la mémoire, puisque on va se souvenir de certaines choses qu’on a lu ou entendu. On mobilise aussi des techniques d’argumentation diverses et variées qui sont des techniques qui nous permettent de penser. »

Mais, pour la philosophe, un autre problème majeur réside en ce que ChatGPT donne des informations sans en donner la source, ce qui atrophie la capacité à penser de manière critique : « le fait de ne pas connaître d’où vient l’information empêche de fait tout esprit critique. Avoir un esprit critique c’est avoir d’abord conscience que quand on nous donne une information, c’est quelqu’un ou un groupe qui nous la fournit. Mais aussi que ces acteurs sont situés et transmettent un point de vue, et que le savoir ou l’information, a été produit, et n’est ni éternel, ni absolu, ni le seul possible. Sans ces dimensions de contexte, de source, de point de vue, il est complexe d’exercer son esprit critique.»

Destruction de l’architecture des savoirs

La disparition de l’apprentissage de la recherche et de la discussion des sources est un élément qui inquiète également Dominique Boullier, sociologue et spécialiste des usages du numérique à Sciences Po. Plus qu’une simple perte de certaines capacités intellectuelles et cognitives, le chercheur y voit une mutation de l’architecture des connaissances telle que nous la connaissons aujourd’hui. Il indique notamment le danger dans « le fait de déléguer sa confiance dans un savoir à ce type de machine, qui n’a aucune existence en termes de statut dans le monde de production de la connaissance, c’est-à-dire la science. » Il précise : « un savoir scientifique se construit collectivement et lentement, autour de références et de référents qui font autorité, ainsi que sur des méthodes et des techniques. C’est par cette organisation qu’on construit ces savoirs et qu’on peut développer des points de vue communs. Derrière ChatGPT, il y a une fiction de scientificité. Une telle machine passe pour soit disant juste et neutre, sans point de vue et c’est un vrai problème, car ça sort le savoir du sujet connaissant. Or un savoir est toujours rattaché à un sujet connaissant. »

Car, se fier à ce qu’écrit ChatGPT, c’est aussi oublier la manière dont ce modèle de langage construit ses réponses. Anne Alombert rappelle que les textes générés par ChatGPT, le sont « sur la base de calculs statistiques probabilistes. » Ainsi, ces textes sont statistiquement probables, mais « n’ont aucun rapport avec la vérité ou la véracité du propos. ChatGPT ne génère pas de savoir, et à peine de l’information, mais seulement des suites de mots probables, qui peuvent donner un résultat faux. » Ici, la chercheuse poursuit en indiquant que « le problème, est la manière dont ce chatbot a été conçu, c’est-à-dire sous cette forme d’agent conversationnel à qui l’on peut demander tout et n’importe quoi, et qui a toujours la réponse. Il faut vraiment bien distinguer la probabilité des statistiques et la vérité ou la pertinence. »

L’interrogation autour de la construction des savoirs n’est pas anodine. Si lorsqu’on change de technologie, l’architecture de connaissance et ses conditions de productions et de validations évoluent également. Pour Dominique Boullier, l’avènement d’une technologie comme ChatGPT pourrait mener à ce qu’il qualifie de « transformation radicale d’un système référentiel ». Ici le sociologue propose l’idée que les différentes avancées technologiques permettent aux individus de se constituer un référentiel commun et concordent avec les avancées économiques et humaines. À l’image de l’invention de l’imprimerie qui aurait « permis de faire émerger d’autres types d’informations, de rendre le débat possible, ainsi que la critique de l’Église plus importante, allant jusqu’à la Réforme. » Dans cette idée qui s’approche du déterminisme technologique, des évolutions sociétales et économiques pourraient découler de l’utilisation d’une technologie telle que ChatGPT.

Recréer de la confiance

Ainsi, si l’utilisation d’un modèle de langage comme ChatGPT peut avoir des conséquences concrètes sur les capacités des individus, ses effets peuvent également être collectifs. Anne Alombert identifie notamment le risque d’une « atrophie de la culture collective » à travers l’utilisation d’une telle technologie. Pour la philosophe, la perte de capacités intellectuelles et cognitives des individus a aussi pour conséquence la perte d’habitude de faire évoluer collectivement ces savoirs. Or, « le savoir ne peut jamais être à l’état de donnée, d’information stockée. C’est un processus du vivant qui s’opère entre différents individus, dans des groupes sociaux. C’est ce qui fait la diversité des interprétations, des manières de vivre les différents types de savoirs. Et c’est la seule manière qui peut permettre au savoir de se renouveler, d’évoluer, de se diversifier », précise la philosophe.

La question de l’interprétation des savoirs est centrale, notamment dans un cadre de vie démocratique. Pour Anne Alombert c’est « précisément, ce qui permet aussi aux individus de vivre ensemble politiquement. […] dans des sociétés qui se fondent sur le débat et la libre circulation des idées. […] Se pose ici la question de la confiance. Si on ne peut plus croire les textes que l’on lit, si on ne peut plus faire confiance à ce qui circule sur le web, ça risque de créer de gros problèmes d’un point de vue politique. Ce dont on aurait besoin, me semble-t-il, c’est plutôt de recréer de la confiance. » Une confiance, qui devrait passer, selon la philosophe, à travers l’enseignement de l’histoire et de l’anthropologie des techniques dès le plus jeune âge. Mais aussi à travers l’utilisation et la promotion d’outils numériques dont le fonctionnement s’éloigne de celui de ChatGPT. On peut ici donner l’exemple d’un dispositif comme Wikipédia, plateforme sur laquelle « les savoirs sont collectivement débattus et critiqués. »

Il ne faut pas non plus fermer la porte aux intelligences artificielles, mais développer de nouvelles pratiques, à l’image de l’IA Joséphine, commercialisée en 1986, qui poussait son utilisateur à la réflexion en utilisant des procédés issus de la maïeutique. Ou encore limiter l’IA à sa seule utilisation statistique et mathématique. Il s’agit ici de transformer le numérique en « plateforme de support au partage des savoirs, à la confrontation des points de vue, à la délibération collective. »

https://www.socialter.fr/article/chat-gpt-pensee-critique-science