Enquête glaçante sur la Révolution ChatGPT
OpenAI : dans la tête des créateurs de ChatGPT
Derrière le logiciel se cache OpenAI, start-up à la vision messianique et aux ambitions planétaires, fondée par des ténors de la Silicon Valley, dont Elon Musk.
D’où vient OpenAI ? Qui est derrière cette entreprise d’intelligence artificielle (IA) devenue célèbre pour son logiciel ChatGPT, qui peut écrire des textes en réponse à une requête, et pour DALL-E, capable, lui, de créer une image à partir d’une description écrite ? Ces dernières semaines, les internautes se pressent pour leur faire produire des devoirs d’école, des sketchs, des tableaux imaginaires, des croquis de décoration…
Le géant Microsoft serait prêt à investir 10 milliards de dollars (9,2 milliards d’euros) dans OpenAI, déjà valorisée 29 milliards. « Cela fait vingt ans qu’on n’a pas vu une structure avec de jeunes ingénieurs développant une technologie qui se révèle révolutionnaire. La dernière fois, c’était probablement Sergey Brin et Larry Page, de Google », admire Alexei Grinbaum, physicien, philosophe et membre du comité national d’éthique du numérique et président du comité opérationnel d’éthique du numérique du Commissariat à l’énergie atomique.
La genèse d’OpenAI remonte à un dîner de juin 2015, au Rosewood, un hôtel prisé de l’élite de la Silicon Valley, à deux pas des grands fonds de capital-risque de ce berceau de la « tech » californienne. Ce soir-là, la table accueille Elon Musk, le patron de Tesla et SpaceX. Depuis plusieurs mois, celui-ci s’inquiète publiquement de l’essor de l’intelligence artificielle, jugée, dans l’un de ses tweets, « potentiellement plus dangereuse que les bombes nucléaires ».
Avec son ex-associé de Paypal, Peter Thiel, il a investi dans DeepMind, une pépite du secteur, depuis rachetée par le géant du numérique Google. Parmi la poignée de chercheurs en « IA » conviés au dîner se trouve d’ailleurs une jeune star de Google, Ilya Sutskever, qui a remporté le défi ImageNet de reconnaissance d’image, grâce à un logiciel imitant les neurones du cerveau.
L’initiative de l’entrevue a été prise par le trentenaire Sam Altman. Patron du puissant incubateur de start-up Y Combinator, il est aussi ami de MM. Musk et Thiel, avec lesquels il partage un goût pour les discussions futuristes, sur l’allongement de la vie, le revenu universel, le survivalisme ou… l’IA. Greg Brockman, lui, vient de démissionner de sa jeune pousse Stripe. « Le paiement en ligne ne m’apparaissait pas comme un problème sur lequel je voulais travailler jusqu’à la fin de mes jours. L’intelligence artificielle, si », raconte l’ex-étudiant de Harvard, aujourd’hui président d’OpenAI.
Penchant messianique et technophile
Ces futurs cofondateurs ont un point commun : ils font partie du petit cercle de personnes qui, comme les créateurs de DeepMind ou le cosmologiste Stephen Hawking, croient possible l’émergence d’une « intelligence artificielle générale ». « L’ambiance au dîner mêlait l’espoir qu’on pourrait peut-être créer des machines capables de résoudre des problèmes sur lesquels les humains butent – limiter le changement climatique, voire guérir toutes les maladies ou proposer l’éducation universelle – et la conscience des risques », raconte M. Brockman, à propos de cette rencontre relatée dans le livre Genius Makers (Dutton, 2021), du journaliste Cade Metz.
Aujourd’hui forte de 300 personnes, OpenAI a concrètement démarré début 2016, avec une dizaine d’ingénieurs, dont cinq débauchés de Google
« Comment faire naître cette technologie, tout en s’assurant que ses bénéfices soient distribués équitablement et en limitant les dangers ? », résume le président d’OpenAI. Cette question contradictoire est devenue la devise de l’entreprise. Son penchant messianique et technophile, caractéristique de la Silicon Valley, est encore renforcé par la forme atypique choisie alors par OpenAI : une organisation à but non lucratif promettant de partager ses recherches en « open source », afin d’éviter la monopolisation de l’IA par Google, Facebook ou de « mauvais acteurs ». « A l’époque, parler d’IA générale était un gros mot », insiste M. Brockman. Aujourd’hui, cela « passe un peu moins pour de la science-fiction pure », dit en souriant l’informaticien qui, à son mariage, a fait apporter les alliances par un bras robotique.
Aujourd’hui forte de 300 personnes, OpenAI a concrètement démarré début 2016, peu après le fameux dîner, dans l’appartement de M. Brockman, avec une dizaine d’ingénieurs, dont cinq débauchés de Google. Vite déplacée dans un petit immeuble de San Francisco − un temps partagé avec Neuralink, le projet d’interface cerveau-machine d’Elon Musk −, la petite équipe travaille sur des systèmes pour entraîner les IA, sur un programme pour piloter une main-robot capable de compléter un Rubik’s Cube… Ses fondateurs, dont Peter Thiel, et des fonds ont promis d’investir un milliard de dollars. Mais certains travaux semblent flous : des chercheurs se demandent si l’on peut inculquer des « valeurs humaines » à une IA, afin d’éviter qu’elle s’en prenne aux habitants de la Terre.
L’image d’OpenAI change fortement en 2019. Elon Musk est parti en 2018, à la suite d’un « conflit d’intérêts » lié au recrutement d’ingénieurs d’OpenAI par Tesla, mais il reste « en bons termes », précise M. Brockman. Le PDG Sam Altman décide alors coup sur coup de créer une filiale à but lucratif, d’accepter un milliard de dollars de Microsoft et de remettre en cause sa politique de publication open source pour son modèle de traitement du langage GPT-2.
Certains y voient une trahison de son « idéalisme » d’origine, raconte Mark Nitzberg, du Center for Human Compatible AI, un laboratoire de l’université de Berkeley, à San Francisco : « Ces annonces ont confirmé les suspicions qu’une organisation caritative ne pouvait pas créer une technologie d’une aussi grande valeur. » M. Brockman explique avoir changé d’approche en raison des risques de voir GPT-2 détourné pour générer de la « désinformation ». « Nous avons aussi compris que nous allions devoir dépenser des milliards en superordinateurs pour entraîner nos logiciels », ajoute-t-il.
Tournant radical vers le business
Aidé par la puissance d’un supercalculateur exclusif de Microsoft, OpenAI crée, en 2020, une « rupture », avec le lancement de GPT-3, raconte Laurent Daudet, de LightOn, une start-up française développant de tels modèles de traitement du langage. Avec 175 milliards de paramètres, GPT-3 est inédit par sa taille et révèle des « propriétés inattendues » : ces grands modèles savent calculer, écrire du code informatique, traduire, répondre à des questions… Dans la foulée, Microsoft intègre GPT-3, ChatGPT (qui en est dérivé), puis DALL-E, à ses services de « cloud » (informatique dématérialisée) pour les entreprises. Depuis, le groupe cherche même à améliorer ses logiciels Word, PowerPoint, Outlook ou Teams, voire son moteur de recherche Bing, afin de défier Google.
Pour cela, Microsoft serait disposé à investir 10 milliards de dollars dans OpenAI : en échange, il toucherait 75 % des bénéfices futurs, jusqu’à la récupération de son investissement, puis 49 %, jusqu’à un « plafond » inférieur à 100 fois sa mise de départ, selon Fortune. Sans confirmer, M. Brockman assure que la structure à but non lucratif restera indépendante et « contrôlera » toujours sa filiale. Au sein de son conseil d’administration, les membres intéressés aux profits resteront « minoritaires ».
Pour certains, OpenAI se distingue moins par une technologie supérieure que par son choix de rendre ses outils accessibles au grand public
Pour générer des revenus, OpenAI vend à des entreprises des licences de ses logiciels, facturés quelques fractions de centimes par requête. Sur la plate-forme d’apprentissage des langues Duolingo, on utilise ainsi GPT-3 pour « corriger la grammaire de petites rédactions » ou pour « créer des textes de test ». Mais la route pourrait être longue : OpenAI ne prévoirait qu’un milliard de dollars de revenus en 2024, d’après l’agence Reuters.
Outre ce tournant radical vers le business, OpenAI se voit aussi reprocher les dangers potentiels de ses programmes. Pour certains, la start-up se distingue moins par une technologie supérieure que par son choix de rendre ses outils accessibles au grand public. Google, inventeur en 2017 de Transformers, la technique sur laquelle s’appuient les modèles de langue comme GPT-3, dispose d’équivalents de DALL-E et ChatGPT, mais en restreint l’accès, par peur d’un « risque réputationnel ». En effet, ces programmes commettent des erreurs factuelles et reproduisent des stéréotypes racistes ou sexistes contenus dans leurs données d’entraînement, tirées du Web. OpenAI affirme mettre en garde les utilisateurs.
Pour filtrer les réponses inappropriées, l’organisation a aussi créé des systèmes entraînés notamment par des employés d’un prestataire installé au Kenya et en Inde, a révélé le magazine Time. OpenAI supprime le compte des utilisateurs abusifs et étudie les moyens d’identifier les textes produits par une IA, par exemple grâce à un filigrane encodé dans l’emplacement de certaines lettres du texte. Pour M. Brockman, avancer ainsi, « de façon graduelle », vaut mieux « qu’agir au sein d’une tour d’ivoire et, un beau jour, rendre publique une IA superpuissante ».
Quête de responsabilisation
Symbole de son évolution, OpenAI a embauché en 2021 Anna Makanju, une responsable des affaires publiques au profil impressionnant, passée par Facebook et SpaceX, mais aussi par l’administration Obama et la Cour pénale internationale. Début janvier 2023, elle a rencontré le ministre délégué français chargé de la transition numérique, Jean-Noël Barrot, à San Francisco. « Nous avons évoqué la régulation, raconte-t-il. Et constaté qu’OpenAI réservait un accueil favorable au règlement européen sur l’IA en discussion à Bruxelles. » Derrière cette bataille s’en profile déjà une autre : des auteurs des textes et des images utilisés pour entraîner les IA réclament des royalties…
Désormais en pleine lumière, OpenAI semble en quête de responsabilisation. Mais son discours sur l’IA « générale » reste controversé. Cette « révolution comparable aux révolutions agricole, industrielle et numérique » sera peut-être finalement une « transition graduelle », nuance M. Altman sur TechCrunch, mais elle pourrait intervenir « dans la prochaine décennie », a-t-il tweeté, en décembre 2022.
Certains sceptiques rappellent que l’IA a déjà connu plusieurs emballements, suivis d’« hivers ». Les logiciels comme ChatGPT ne sauraient toujours pas raisonner. « Cela reste des modèles statistiques très musclés, relativise Julien Chaumond, de Hugging Face, plate-forme de publication de modèles d’IA. L’IA générale superhumaine, c’est presque philosophique. Personne de vraiment sérieux n’y croit pour dans dix ans. Et c’est presque un moyen de faire l’impasse sur les vrais sujets d’éthique liés au déploiement actuel de l’IA, comme les biais ou la non-transparence des algorithmes. »
En attendant, OpenAI prépare déjà GPT-4, mais aussi une version de DALL-E capable de produire des vidéos. Plusieurs start-up ont lancé des modèles similaires : Anthropic, fondée par des anciens d’OpenAI, Midjourney ou encore Stability, projet open source soutenu par Amazon, selon le Financial Times. Cette concurrence est « souhaitable », relativise M. Brockman. Mais si l’on ajoute Meta (Facebook), une « course à l’armement » est en cours, observe l’analyste financier Dan Ives, de Wedbush Securities.
Pour M. Chaumond se pose une question de « concentration » de l’IA. Et même de « souveraineté européenne », estime de son côté M. Daudet, de LightOn. On note un jeu de posture pour paraître à la fois en pointe et éthiquement raisonnable. « Nous devons être prudents », met en garde, dans Time, le fondateur de DeepMind, Demis Hassabis, tout en annonçant un concurrent de ChatGPT et en réaffirmant sa foi dans l’IA « générale », cette technologie « capable de définir une époque », comme l’électricité. « L’IA est beaucoup plus complexe qu’un problème purement technologique. Nous avons pris conscience que nous devions intégrer la dimension sociétale », philosophe, au nom d’OpenAI, M. Brockman. Dont acte.
https://www.lemonde.fr/economie/article/2023/01/21/op
** **
Articles réservés aux abonnés
L’intelligence artificielle est imparfaite, et alors ?
« Déployer une intelligence artificielle éthique sera l’enjeu du siècle qui vient »
ChatGPT : à l’université, un outil pédagogique ou un instrument de triche ?
Intelligence artificielle : ces nouveaux logiciels capables de créer des images à partir de textes
Intelligence artificielle : Microsoft prêt à investir davantage dans la pépite OpenAI
ChatGPT, le logiciel capable d’écrire des petits textes confondants
** **
Le choc de l’intelligence artificielle
Les logiciels du type ChatGPT, qui vont envahir notre quotidien, posent des questions vertigineuses. Nul ne pourra interdire des outils dont l’usage très simple fera un succès irrésistible. Il importe donc de travailler en amont, sur l’intelligence des individus, sur leur formation au jugement, sur leur éducation à la liberté, estime le journaliste et écrivain Jean-François Bouthors.
Depuis fin novembre est disponible en ligne un logiciel de conversation virtuelle, produit de l’intelligence artificielle (IA) : ChatGPT permet de générer en ligne, à partir de questions simples posées en utilisant le langage courant, des textes qui semblent avoir été écrits par un être humain. Lui donner un sujet de rédaction proposé à un élève du secondaire permet de générer un devoir tout à fait correct. Idem pour une dissertation universitaire. Déjà des élèves et étudiants « branchés » ont rendu des copies générées en quelques secondes par le logiciel nourri par des millions de textes de toutes sortes. Grosse inquiétude chez les professeurs : comment évaluer les connaissances si c’est la machine qui répond par écrit ? Des universités américaines en ont déjà interdit l’usage, et certains préconisent la suppression des écrans à l’école…
Un outil facile à utiliser
Mais on peut aussi demander à ce logiciel d’écrire une lettre à son assureur pour l’interroger sur l’avancée d’un dossier de sinistre, ou un courrier à sa mutuelle à propos d’un devis de prothèse dentaire. Autrement dit, ChatGPT va très vite s’imposer comme un formidable outil pour nous simplifier la vie. Ce fut le cas de l’invention du smartphone en 2007 qui a changé une multitude de choses dans nos vies, y compris, on le voit en Ukraine, la façon de faire la guerre.
On peut prédire que les logiciels du type ChatGPT vont envahir notre quotidien. Cela pose des questions vertigineuses dont la « triche » à l’école n’est qu’un petit exemple. Tous les métiers qui font appel à des « rédacteurs » seront affectés : l’IA fera beaucoup plus vite tout ce qui ressemble à une synthèse d’informations disponibles. Couplée à des données qui permettent de caractériser les destinataires, elle fournira très facilement des textes « personnalisés » à des fins déterminées, commerciales ou… politiques. Elle fait même déjà des lignes de programme informatique !
Risques de manipulation
Les conséquences seront considérables. En termes d’emploi, évidemment, mais pas seulement. Dirigés vers les réseaux sociaux et leurs bulles cognitives, connectés aux moteurs de recherche, des logiciels d’IA seront capables de multiplier les « narratifs » destinés à influencer les opinions personnelles et collectives. Tant que nous n’aurons pas adapté nos capacités de discernement à cette véritable innovation de rupture, nous serons manipulables à souhait. Déjà, un logiciel voisin de ChatGPT permet de générer des images virtuelles à la demande. Quand on sait la force de l’image et les usages qui peuvent en être faits à des fins de propagande et d’influence, il y a de quoi s’inquiéter.
Que faire ? Nul ne pourra interdire des outils dont l’usage très simple fera un succès irrésistible. Pour briser les bulles cognitives et éviter leurs manipulations par des outils d’une puissance qui dépasse ce que les générations antérieures pouvaient imaginer, il importe de travailler en amont, sur l’intelligence des individus, sur leur formation au jugement, sur leur éducation à la liberté. D’insister sur le rôle de la relation, de l’interlocution, du dialogue, de la controverse pour affiner son jugement. De valoriser l’expérience de l’altérité qui permet de relativiser les passions et les « certitudes » et donc d’être plus responsables. Bref, il s’agit de faire ce que Montaigne appelait des « têtes bien faites », plutôt que « bien pleines ». Dans un temps de repli sur des identités qui cherchent à se conforter dans l’entre-soi de ceux qui se ressemblent, il s’agit de développer une culture commune de la diversité intelligente.
https://www.ouest-france.fr/reflexion/point-de-v
** **
Commentaire
On se plaint un peu de cette évolution de la société qui laisse peu de place à la réflexion, à l’intelligence HUMAINE. On va évidemment se plaindre de l’évolution de l’école qui ne sert plus souvent à réfléchir et à donner des bases. C’est normal car nos dirigeants ne vont certainement donner des armes aux citoyen.nes pour contester ce qui se met en place. On voit le résultat.
Dans ces articles du Monde et de Ouest-France, il n’est jamais question de remettre en cause ce système capitaliste qui est à l’origine de ces « créations ». Il est question d’adapter. Le problème est que, même si ce système accepte ces éventuelles adaptations, il a une capacité à rebondir pour mieux sauter. On parlera toujours de « progrès » : « on ne peut pas être contre le progrès » ; c’est ce qui se dit souvent. Le seul progrès qui avance est technologique et pas du tout HUMAIN.
Par ailleurs, cette évolution de la société et cette numérisation du monde (avec notamment l’outil que nous attaquons sur ce site, à savoir la 5G) prépare une société qui s’appelle le transhumanisme. De cela, on n’en parle pas souvent, voire pas du tout. C’est grave.