L’incertaine viabilité économique de l’IA générative

Alors que les investissements gigantesques dans le secteur se poursuivent, les conditions de la rentabilité deviennent de plus en plus difficiles

Le modèle économique du secteur change, sans s’assurer une porte de sortie satisfaisante.

L’économie de l’intelligence artificielle (IA) générative entre dans le dur. Ces dernières semaines, plusieurs informations sont venues confirmer que la question des modèles économiques liés à cette technologie se posait avec une acuité particulière. Le 24 mars, OpenAI, l’inventeur de ChatGPT et une des locomotives de l’IA, annonçait l’abandon de deux projets annoncés précédemment avec tambours et trompettes.

Non seulement son idée de chatbot (robot conversationnel) érotique a été « mis[e] en pause indéfiniment », mais, bien plus important, la plateforme de création de vidéos Sora a également été fermée deux mois après son lancement en grande pompe.

Pourtant, lors de son lancement en décembre 2025, Sora était présentée comme le produit phare d’OpenAI. Son argument marketing principal était qu’il bénéficiait du catalogue de personnages de Disney. La firme de divertissement avait, en outre, annoncé vouloir investir 1 milliard de dollars dans ChatGPT. Sora, alors, était vue comme une sorte de seconde ChatGPT, renforçant l’usage quotidien de l’IA et sa diffusion dans l’industrie culturelle.

Seulement, l’affaire avait vite tourné au vinaigre pour OpenAI. La création de vidéos par IA est en effet extrêmement coûteuse, mais elle n’a quasiment rien rapporté à l’entreprise. Et le problème, c’est que plus les utilisateurs sont nombreux, plus le coût augmente. Sans relever les recettes en parallèle. Selon le Wall Street Journal, Sora coûtait en moyenne 1 million de dollars par jour et n’a rapporté, depuis son lancement, qu’un peu plus de 2 millions de dollars.

Un tonneau des Danaïdes qui pourrait, en soi, ne pas poser de problème. C’est en effet la stratégie classique des start-up technologiques : elles imposent un usage par la quasi-gratuité, enregistrent alors de fortes pertes, puis une fois cet usage devenu un besoin incontournable, elles ont capté leur clientèle, fixent leurs prix et réalisent des profits records. Un exemple récent de ce système a été celui de la plateforme musicale Spotify.

Le modèle économique de l’IA : plus les chemins de fer qu’Internet

Mais, cette fois, OpenAI n’a pas voulu, dans le cas de Sora, développer cette stratégie. Au contraire, la start-up a proclamé qu’elle allait utiliser les fonds économisés par la fermeture de Sora sur des produits « agentiques », ces applications d’intelligence artificielle capables d’agir de façon autonome pour exécuter des tâches à la place des humains. Des applications visant une clientèle d’entreprises désireuses d’améliorer leur productivité. Autrement dit, des produits potentiellement rentables pour OpenAI, qui pourra récupérer une partie de ces gains de productivité supplémentaires réalisés.

La décision d’OpenAI traduit un tournant pour l’ensemble de l’industrie naissante de l’IA. Le modèle « Internet » de start-up qui a prévalu jusqu’ici avec ChatGPT a déjà atteint ses limites. Pour une raison simple : l’IA s’appuie bien davantage sur des infrastructures physiques dont le coût est élevé. Dès lors, cette technologie est continuellement confrontée à une contradiction entre ce que Karl Marx appelle le « processus de production » et le « processus de valorisation ».

Sur le papier, l’IA générative peut faire bien des choses, notamment produire à l’infini des vidéos plutôt tartes avec des personnages de Disney pour le plus grand enthousiasme des yeux contemporains. Son processus de production semble sans limites. Mais les conditions de cette production sont très coûteuses. L’IA mobilisée par OpenAI repose sur un grand modèle de langage (large language model, LLM), qui s’appuie sur des puissances de calculs de puces dernière génération extrêmement élevées mises en réseau dans de gigantesques centres de données (data centers).

Tout est cher dans ce schéma : les puces, la construction des centres de données, leur maintenance dans des conditions optimales, le traitement des données… L’absence théorique de limites de l’IA vient se fracasser sur sa capacité à être rentable. Et la décision d’OpenAI concernant Sora nous dit que certaines applications ne peuvent pas être rentables, même à long terme.

Le pari à la Spotify ne peut pas fonctionner ici : il nécessiterait la mobilisation beaucoup trop élevée de moyens financiers avec des perspectives de retour sur investissement beaucoup trop faibles. Une étude de la banque HSBC indiquait, avant le lancement de Sora fin décembre, que si OpenAI réalisait en 2030 200 milliards de dollars de chiffre d’affaires (il en a réalisé 13,1 milliards en 2025), il lui faudrait lever, en parallèle, 207 milliards de dollars pour rester financièrement viable. C’est plus que le PIB actuel du Maroc prévu par le Fonds monétaire international (FMI) pour 2026.

L’ensemble de la valeur des installations liées à l’IA en 2030 pourrait atteindre le chiffre astronomique de 9 000 milliards de dollars.

Voilà la clé pour comprendre l’économie de l’IA : le changement d’échelle (scaling) de la production d’IA sur lequel elle repose s’accompagne d’un changement d’échelle de ses coûts. Et la difficulté est, dès lors, non pas seulement le financement de l’amorçage et du décollage de la technologie, mais celui de son fonctionnement quotidien. C’est cela que nous dit l’affaire Sora : on ne peut pas espérer « sauter par-dessus » l’enfance de l’industrie pour se retrouver dans le monde enchanté d’une activité rentable. L’IA n’est ni le smartphone ni Internet.

Ce nouveau secteur ressemblerait plutôt davantage au chemin de fer : une technologie fortement capitalistique aux coûts fixes si importants que sa rentabilité a toujours été problématique et que l’État a presque toujours dû être mobilisé pour assurer son existence.

Au reste, le montant des investissements consentis pour le développement des infrastructures de l’IA, principalement les centres de données remplis de puces en réseau, sont si vertigineux qu’ils égalent sans doute ce qui avait été la fièvre de la construction des chemins de fer en Europe occidentale et en Amérique du Nord, dans les années 1840 et 1860.

Car, alors qu’OpenAI stoppait Sora en catastrophe, les milliards de dollars continuaient à irriguer le secteur. L’entreprise de Sam Altman a levé le 31 mars 122 milliards de dollars, un record historique pour une levée de fonds privée. Et début février, les quatre géants de la technologie (Amazon, Meta, Alphabet et Microsoft) prévoyaient ensemble de dépenser 650 milliards de dollars dans l’IA en 2026, soit 60 % de plus qu’en 2025.

Les chiffres sont vertigineux. Selon le Financial Times, l’ensemble de la valeur des installations liées à l’IA en 2030 pourrait atteindre le chiffre astronomique de 9 000 milliards de dollars. Et une puissance cumulée pour les centres de données de 125 gigawatts, soit plus de trois fois l’usage de l’électricité d’un pays comme le Royaume-Uni aux heures de pointe.

Fuite en avant

Ces investissements massifs ne sont pas le fruit du hasard. L’enjeu pour les acteurs du système est d’atteindre le plus rapidement la taille critique pour imposer leurs produits sur le marché, mettre en place un système oligopolistique ou monopolistique et, finalement, pouvoir imposer ses prix et espérer un retour sur leurs investissements.

Dans ce jeu de vitesse, les acteurs ne sont cependant pas tous égaux. OpenAI est en bout de chaîne. Il développe les produits d’IA, mais ne contrôle pas les centres de données. Sa position est, par ailleurs, plus soumise à la concurrence dans la mesure où les LLM sont moins coûteux à développer que la construction de centres de données. ChatGPT est donc soumis à une dangereuse concurrence, notamment celle de Claude, le modèle de l’entreprise Anthropic.

Comme souvent, les « opérateurs » de la technologie sont plus fragiles que les fournisseurs d’infrastructure, parce qu’ils accumulent les coûts en fin de chaîne mais qu’ils sont aussi soumis aux effets de revenus des consommateurs finaux. Les compagnies ferroviaires souffrent davantage que les fournisseurs d’acier prospèrent.

Mais la particularité de l’IA complique l’équation. À l’importance des coûts s’ajoute la question très sensible de la durée de vie des centres de données et des puces qui les peuplent. On ignore beaucoup de choses sur ce point. L’industrie fonde ses calculs sur une durée de vie de six ans. Microsoft évoque un temps compris entre deux et six ans.

Certaines sources évoquent la possibilité que les puces soient entièrement épuisées au bout de trois ans. Et Bloomberg estime que les centres de données, des bâtiments très fragiles et sensibles, pourraient devenir obsolètes au bout de cinq ans.

En estimant que les 9 000 milliards de dollars soient suffisants pour les besoins de l’IA d’ici à 2030, il faudrait donc renouveler cet investissement colossal au moins tous les cinq ans.

La réponse des Big Tech est alors celle de la fuite en avant. Il faut construire beaucoup et vite pour pouvoir atteindre une taille critique, devenir incontournable pour le marché et imposer une logique oligopolistique capable d’imposer des prix suffisants pour absorber de tels coûts gigantesques. De Spotify, le modèle devient Andrew Carnegie, bâtisseur d’un véritable monopole de l’acier aux États-Unis à la fin du XIXe siècle.

Une course de vitesse qui a donné aux grands acteurs de l’IA leur nouveau nom : les hyperscalers, autrement dit ceux qui sont capables de démultiplier l’échelle de l’IA. Car l’échelle devient un élément central pour la rentabilité.

Ces acteurs défendent des stratégies proches, mais qui, néanmoins, se distinguent. Meta tente de développer un modèle « interne » concentrant ses investissements sur son propre usage ; Amazon se concentre sur les infrastructures d’amont qu’ils louent à d’autres ; Google et Microsoft rajoutent à cette dernière activité le développement de produits finaux en vue de contrôler tout l’écosystème.

Circularité de la dette

Dans cette course, les Big Tech dispose d’un atout de poids : une trésorerie abondante reposant, dans l’économie numérique actuelle, sur des quasi-rentes. On pourrait, d’ailleurs, résumer leurs stratégies par le maintien de cette rente. Mais ces liquidités qui, voici encore quelques années, semblaient gigantesques, ne suffisent plus. L’impensable se produit : les Big Tech doivent désormais avoir recours à la dette.

La banque états-unienne Morgan Stanley estime que les hyperscalers vont emprunter 400 milliards de dollars cette année, après 165 milliards en 2025. En tout, les besoins de financement externe sont estimés à 1 500 milliards de dollars. C’est un changement majeur de modèle économique pour ces entreprises. Et pour préserver leur capacité d’endettement, elles sont même obligées de contourner les obstacles et de prendre de nouveaux risques.

D’abord, elles mettent en place une « économie circulaire » de la dette. Les acteurs de l’IA ayant tous un intérêt commun, celui d’imposer l’usage de cette technologie au point de la rendre rentable, ils coordonnent leurs efforts par des accords parfois étonnants où ils se prêtent des fonds ou se garantissent des prêts. Désormais, le monde de l’IA est devenu une gigantesque toile d’araignée d’engagements mutuels où chacun dépend financièrement des autres.

Risques financiers

Une autre façon d’assurer ces moyens, c’est de recourir à des sociétés ad hoc (special purpose vehicle, ou SPV) pour financer la construction des centres de données ou l’acquisition de puces. Ces entités, souvent montées avec le financement d’investisseurs externes ou de banques, deviennent propriétaires des actifs en question et peuvent émettre des obligations en s’appuyant sur la note de la Big Tech qui pilote l’opération.

En retour, la Big Tech paie un loyer pour avoir le droit d’utiliser ces actifs. Sa situation financière est laissée intacte par l’opération et les centres de données ou les puces sont mis à sa disposition. Mais, évidemment, la construction n’est pas sans risques. Si le centre de données ou les puces deviennent obsolètes plus rapidement que prévu, il n’est pas dit que le remboursement de la dette soit possible.

En octobre, la banque centrale britannique s’est inquiétée de l’ampleur de la dette mobilisée pour financer les centres de données. « Si le montant de la dette liée à l’IA et aux infrastructures énergétiques associées se matérialise, les risques sur la stabilité financière pourraient augmenter », souligne l’institution. Car, de plus en plus, les banques et les sociétés de finance privée ont une exposition massive à ce secteur.

Résumons : la future rentabilité des activités liées à l’IA devra assurer le financement des coûts de fonctionnement gigantesques de cette technologie, mais aussi l’obsolescence rapide de ces infrastructures et les coûts financiers liés à la dette contractée pour le déploiement de l’IA. Le tout en assurant un rendement « net » permettant la rentabilité des opérations en cours. En bref : le coût du capital de l’IA est astronomique.

Comment cette technologie pourra-t-elle dégager de telles marges ? La réponse des Big Tech et d’OpenAI, c’est que les utilisateurs finaux paieront. Un pari risqué, que Mediapart explore dans le second volet de cette série.

mediapart