Est-ce devenu une mission impossible ?
Un an après le lancement phénoménal de ChatGPT, nous consacrons une série d’articles aux conséquences majeures de l’arrivée de l’intelligence artificielle générative dans plusieurs secteurs.
L’homme est devenu invisible. Pas d’interview, pas d’intervention publique, pas de lancement majeur de nouveau produit… Depuis son éviction de la tête d’OpenAI, puis sa réintégration spectaculaire cinq jours plus tard, fin novembre, Sam Altman se fait discret. On n’a même pas entendu le directeur de l’éditeur de ChatGPT après l’accord au niveau européen, dans la nuit du 8 au 9 décembre, sur une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA).
Et pourtant, à quelques jours d’intervalle, deux camps que tout oppose viennent chacun de remporter une victoire. Celui incarné par Sam Altman représente la faction dite des «accélérationnistes» («effective accelerationists» ou «e/acc»), qui ont une foi quasi absolue en la technologie, capable selon eux de résoudre les problèmes majeurs de l’humanité. Et qui, cela va sans dire, n’ont aucune envie de s’embarrasser de réglementations susceptibles de les ralentir. En face, il y a le camp des sceptiques, de ceux qui veulent ralentir la machine, prendre le temps d’estimer les risques et qui voient d’un bon œil un encadrement législatif pour que la technologie ne devienne pas hors de contrôle.
Confusion totale
Ces deux camps sont d’apparence irréconciliables. Et le choc entre ces deux visions est d’autant plus difficile à déchiffrer que les lignes s’entremêlent. On a ainsi vu très souvent Sam Altman, parti durant de longs mois en tournée mondiale en début d’année, réclamer devant le Sénat américain, face à Emmanuel Macron ou des représentants japonais un encadrement réglementaire de l’IA. Mais attention, seulement pour les «IA les plus à risque» – tout en se gardant bien de placer ChatGPT et d’autres IA génératives dans cette catégorie.
En face, la confusion règne sur les moyens d’encadrer cette hydre à plusieurs têtes. Il y a la réglementation européenne, un plan d’encadrement esquissé par les pays du G7, l’accord de Bletchley Park, à Londres, mais aussi des règles édictées par la Maison-Blanche, des recommandations de l’Unesco, sans parler de nombreuses réflexions nationales, dont celle de la Suisse, qui démarrera en 2024…
Des « rappels brutaux »
Dans ce brouillard, une régulation mondiale est-elle envisageable? Ancien directeur du Conseil de l’Europe, Jan Kleijssen veut y croire: «Il n’est évidemment pas facile de parvenir à un large accord international sur les technologies de pointe, dont les implications économiques et sociétales sont considérables. Mais il existe un consensus de plus en plus large sur le fait que des règles contraignantes sont nécessaires de toute urgence. Non pas en raison d’un risque imminent d’extinction de l’humanité, comme le prétendent certains leaders du marché avides de publicité, mais en raison des dommages réels déjà causés par ces technologies. Le scandale néerlandais des allocations familiales, dans lequel des milliers de personnes ont été accusées à tort de fraude et quelque 3000 enfants ont été retirés à leur famille, et le scandale australien sur des dettes fictives imposées à des citoyens sont des rappels brutaux des conséquences d’une gouvernance inadéquate de l’IA.»
Mais rien n’ira de soi. La législation européenne, qui n’est pas définitive, qui n’entrera pas en vigueur avant 2025, et dont le contenu définitif n’est pas connu, classe l’IA selon plusieurs degrés de risque. Mais même cette gradation est jugée inadéquate par les milieux de la tech, comme l’explique au Temps Cecilia Bonefeld-Dahl, directrice de DigitalEurope, qui représente près de 45 000 entreprises du numérique: «La proposition initiale de loi européenne sur l’IA visait à réglementer les utilisations de l’IA, et non la technologie elle-même. Les utilisations à haut risque, comme les soins de santé, seraient davantage réglementées que les utilisations à faible risque, comme un algorithme de recommandation de films ou de séries sur Netflix. Nous sommes tout à fait d’accord avec cela. Nous estimons qu’il convient donc de maintenir une approche légère à l’égard des modèles de base (ceux qui sous-tendent l’IA générative), en mettant l’accent sur le partage des informations. Cela encouragerait l’innovation. Cependant, ChatGPT est apparu au milieu du processus et les législateurs se sont sentis obligés d’agir, s’éloignant de l’approche basée sur le risque.»
« A quel prix ? »
Selon Cecilia Bonefeld-Dahl, le prix à payer pour la régulation européenne en devenir sera très élevé. «Il s’agit d’une étape historique pour l’UE – la première grande économie à disposer d’une réglementation complète sur l’IA – mais à quel prix? Selon une estimation – tirée de l’étude d’impact de la Commission européenne –, la mise en conformité avec la loi sur l’IA coûterait environ 300 000 euros à une PME de 50 personnes. Cet argent devra être dépensé pour des avocats et non pour des ingénieurs en IA. Or l’Europe est déjà en retard sur l’IA par rapport aux Etats-Unis et la Chine.»
En face, Estelle Pannatier, chargée de politique et de plaidoyer chez AlgorithmWatch CH, regrette ce «narratif qui oppose innovation et régulation ou innovation et droits fondamentaux. Le cœur de la nécessité de réguler est justement de faire en sorte que l’innovation qui profite aux personnes et respecte les droits fondamentaux soit encouragée, et non celle qui nuit aux personnes et à la société.»
Définition des risques
Mais si AlgorithmWatch salue les avancées européennes en matière de régulation, l’association juge que l’approche de l’UE pose deux problèmes. «Le premier, c’est qu’elle cherche à placer a priori des systèmes dans des catégories de risques, estime Estelle Pannatier. Cela ne permet pas de tenir compte des cas individuels et conduit à ce que de nombreuses obligations incombent au développeur (et beaucoup moins à l’utilisateur, en tant que «déployeur du système») alors que de nombreux risques apparaissent dans le contexte de l’application. Cette approche basée sur les risques est maintenant là, il s’agit donc de la rendre aussi bonne que possible.» Pour la responsable d’AlgorithmWatch, le deuxième problème principal est que le règlement sur l’IA légitime des utilisations de systèmes algorithmiques qui ne font pas encore partie du débat public.
Mais du côté positif, AlgorithmWatch salue l’obligation d’une analyse d’impact sur les droits fondamentaux et la transparence publique lors de l’utilisation de l’IA à haut risque par les autorités publiques. «Ce sont des revendications essentielles pour lesquelles nous avons travaillé ces trois dernières années», poursuit Estelle Pannatier.
Pas de « bol de spaghettis »
Le lobby de la tech demeure de son côté méfiant face à la velléité européenne de réguler. Cecilia Bonefeld-Dahl dit par contre qu’elle «soutient pleinement les efforts visant à aligner les approches de l’IA au niveau international, afin d’éviter un «bol de spaghettis» de réglementations différentes. Le travail effectué dans le cadre du processus d’Hiroshima du G7 est particulièrement intéressant, car il rassemble un grand nombre de partenaires parmi les plus importants.» La directrice de DigitalEurope prévient que le nouveau règlement européen «s’ajoute à de nombreux textes législatifs européens dans le domaine des technologies, notamment le Data Act et le Cyber Resilience Act, tous adoptés au cours de ce mandat. Ce «tsunami» de réglementation frappera de nombreuses entreprises au cours des deux prochaines années.»
En attendant une future réglementation européenne, et un hypothétique cadre mondial contraignant, les regards se tournent de nouveau vers les géants de la tech créant ces nouvelles IA. Le 19 décembre, OpenAI annonçait ainsi la création d’une équipe dédiée à l’identification et à la prévention des risques liés à l’IA, qui pourra suspendre le lancement d’un modèle d’IA s’il est considéré comme trop dangereux. Mais attention, ce nouveau groupe va surtout s’intéresser aux modèles dits «d’avant-garde» (frontier models), en cours d’élaboration et dont les capacités sont supérieures aux logiciels les plus aboutis en matière d’IA. L’équipe évaluera chaque nouveau modèle et lui assignera un niveau de risque.
L’autorégulation avance
On est donc en plein dans un système d’autorégulation, selon des règles fixées par OpenAI lui-même. De manière générale, Estelle Pannatier estime que la «dangerosité» d’un système d’IA dépend énormément de son contexte d’utilisation. Un même système utilisé dans des contextes différents n’aura pas forcément les mêmes conséquences sur les droits fondamentaux. «Ce qui est inquiétant, c’est le développement d’un discours au sein de certaines entreprises de la tech qui affirme que puisqu’elles ont développé ces systèmes elles sont celles qui les connaissent le mieux et que c’est donc à elles de dire aux Etats comment réguler», poursuit la responsable.
Selon Estelle Pannatier, «ce discours tend à masquer les intérêts économiques de ces entreprises par rapport à la régulation. De plus, il faut que d’autres points de vue soient également pris en compte dans la régulation. C’est le cas aussi dans d’autres domaines: il ne nous viendrait pas à l’idée de laisser les entreprises pharmaceutiques décider seules des règles entourant le développement et l’utilisation des médicaments.»
Pour l’heure, Sam Altman décide quasiment seul des cocktails d’algorithmes qu’il lance sur le marché…