Les data centers menacés d’obsolescence

A cause de quoi ? Évidemment de l’essor de l’IA

ENQUÊTE. Jusqu’à 80% des data centers seraient inadaptables aux besoins délirants de l’intelligence artificielle, alertent des acteurs du secteur. Pour tenter de répondre à la consommation insatiable des grands modèles d’OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille.

Chaque semaine, Fabrice Coquio, président de Digital Realty France, reçoit plusieurs propositions d’achat de data centers. Mais il s’y intéresse rarement. « Ils sont souvent mal situés, loin des principaux hubs de connectivité, et surtout, ils ne sont pas conçus pour répondre aux besoins grandissants de l’intelligence artificielle (IA) », explique-t-il.

Avant de trancher : « Il faudrait les détruire et tout reconstruire ».

Cette affirmation étonne, mais l’homme ne la prononce pas à la légère. Digital Realty est l’un des principaux opérateurs de data centers en France. L’entreprise américaine a généré un chiffre d’affaires global de 5,4 milliards de dollars en 2023. Elle gère 300 bâtiments dans le monde, dont 17 entre Paris et Marseille. Elle se situe donc en première ligne face à cette révolution qui transforme le secteur. La mise en vente de centres devenus obsolètes est l’un de symptômes les plus parlants de cette transformation.

En cause ? L’arrivée des applications d’IA générative, comme ChatGPT dès fin 2022, qui repoussent les limites des data centers. Les nouveaux modèles de langage tels que GPT-4 (d’OpenAI) ou LLaMA (de Meta), ainsi que les nombreux logiciels qui s’appuient sur ces modèles, nécessitent une puissance de calcul immense. Résultat, les serveurs doivent être plus performants, grâce à des processeurs graphiques (GPU) ou, dans le cas de Google, des unités de traitement de tenseur (Tensor processing unit ou TPU). Ceux-ci entraînent une hausse considérable de la consommation d’énergie dans les data centers, bien que ces nouveaux processeurs améliorent leur efficacité énergétique d’année en année.

Explosion de la consommation énergétique

« Ces infrastructures consomment jusqu’à dix fois plus que l’informatique traditionnelle », estime Régis Castagné, directeur général d’Equinix, autre leader du secteur, avec 8,2 milliards de revenus en 2023 et 260 data centers dans le monde. Selon un rapport de Goldman Sachs, la demande en énergie des centres de données augmentera de 160% d’ici à 2030. « C’est un changement majeur », confirme Dave Salvator, directeur produit des infrastructures de calcul de Nvidia, principal fournisseur des indispensables processeurs aux grands modèles de langage.

« Pendant des années, les infrastructures avaient finalement assez peu évolué, c’étaient des fermes de CPU (central processing unit). Puis cela s’est progressivement transformé avec l’arrivée des GPU il y a environ dix ans. »

L’accélération est encore plus marquée depuis 2024. Car si les phases d’entraînement des grands modèles de langage concernent une poignée de firmes technologiques et peuvent se dérouler dans des centres excentrés, comme à Mulhouse, dans le data center en construction de Microsoft, le déploiement de ces modèles pour des applications en entreprise nécessite lui aussi d’importants calculs, qui doivent se faire au sein de hubs de connectivité, situés à Paris ou Marseille en France.

Les data centers poussés au gigantisme

Pour satisfaire cette boulimie énergétique, les data centers prennent des proportions toujours plus grandes. Le futur centre de Digital Realty à Dugny, près de l’aéroport du Bourget, en région parisienne, s’étalera sur 41.000 mètres carrés pour une puissance de 200 mégawatts, « soit un cinquième de tranche nucléaire », précise Fabrice Coquio.

À La Courneuve (Seine-Saint-Denis), l’opérateur gère déjà un centre de 130 mégawatts en forme de soucoupe géante, souvent confondu avec le stade de France vu du ciel. Microsoft a, de son côté, annoncé agrandir ses centres de données à Marseille et Paris.

« La taille est un critère important, justifie-t-il. Car cela permet d’être capable de réallouer de la puissance électrique facilement en cas de besoin pour un projet d’IA », explique Fabrice Coquio.

Cette densité énergétique accrue génère une chaleur telle que les systèmes de refroidissement traditionnels ne suffisent plus. « Il faut plus d’espacement entre les serveurs, mettre davantage de couloirs de refroidissement », explique Régis Castagné, directeur France d’Equinix.

Pourtant, même ces aménagements ne sont plus suffisants quand on atteint un certain niveau de densité. Pour résoudre ce problème, l’industrie se tourne vers le « direct liquid cooling » (DLC). Cette méthode consiste à injecter un mélange d’eau et de glycol dans des serveurs conçus à cet effet. Car l’eau a l’avantage de mieux dissiper la chaleur que l’air.

Equinix comme Digital Realty disposent d’infrastructures de direct liquid cooling dans quelques-uns de leurs data centers. Mais la technologie est loin d’être déployée partout. Pour obtenir un tel système, Fabrice Coquio estime qu’il faut rajouter 7 à 8% d’investissement supplémentaire par mètre carré sur un data center neuf. « C’est ensuite rentable, car c’est un système de refroidissement plus efficace énergétiquement, mais il faut avoir les moyens financiers d’investir en avance », ajoute-t-il. Pour modifier un bâtiment existant et le rendre compatible au DLC, c’est 16% d’investissement supplémentaire, soit le double, et des mois de travaux, estime le dirigeant.

Outre les prérequis en matière de densité énergétique et de refroidissement, « il y a également une problématique de stockage des données », ajoute Habib Messaoudi, responsable du département Applications, Data et IA de la société de service informatique Kyndryl.

« Les modèles d’IA nécessitent énormément de données. Et une fois qu’ils sont déployés, ils ont besoin d’accéder aux données rapidement avec très peu de latence, donc cela nécessite différentes technologies de stockage haute performance », précise-t-il.

Coûts vertigineux

Ces métamorphoses entraînent des coûts vertigineux. « Les géants de la tech dépensent des dizaines, et bientôt des centaines de milliards de dollars dans de nouvelles infrastructures. Des montants jamais atteints, même au plus fort de la révolution du cloud », se souvient Fabrice Coquio.

Pour les cinq prochaines années, Equinix compte de son côté investir 1,6 milliard d’euros dans quatre nouveaux data centers. C’est plus que le total investi par l’entreprise dans l’Hexagone ces quinze dernières années (1,2 milliard d’euros).

Par ailleurs, cette explosion des coûts et de la complexité technologique concentrent les capacités de calcul chez les géants de l’IA et les opérateurs de data centers. Les entreprises hors tech, grands groupes comme PME, auront plus de mal à implémenter ces changements, rendant la conservation de leurs salles informatiques de moins en moins viable.

Selon la fédération professionnelle France Data Center, 80% du parc privé serait aujourd’hui quasi obsolète. Ou, en tout cas, non-utilisable pour des applications d’IA générative.

« Une salle informatique de 100 mètres carrés, ce que l’on trouve généralement au sein des entreprises, ne peut être transformée pour l’IA du jour au lendemain. Il faut changer l’infrastructure, le raccordement au réseau d’Enedis, les tableaux électriques… Cela revient à utiliser une 4L pour faire une course de Formule 1 : ce n’est pas possible ! »

Ce qui explique la raison pour laquelle Stellantis ou des géants de la banque et de l’assurance vendent l’ensemble de leurs parcs. Régis Castagné ajoute que ce mouvement est également poussé par de nouvelles obligations environnementales, comme la Corporate Sustainability Reporting Directive (CSRD). Cette dernière entrera en vigueur en 2025. Elle oblige les entreprises à publier des rapports de transparence sur leurs data centers, à avoir un P.U.E (un indicateur d’efficacité énergétique) et à atteindre des objectifs d’efficacité énergétique que la majorité des data centers n’ont pas atteints.

Crise de croissance

Le problème, c’est aussi la vitesse de cette transformation. Depuis trois ans, on ne compte plus les sorties de nouveaux modèles, qui chaque mois, voire semaine, gagnent en capacité. Mais construire de nouveaux data centers prend au moins cinq ans. « Il faut donc également adapter l’existant. De manière générale, l’industrie n’est pas prête », explique Régis Castagné.

Equinix estime tout de même pouvoir convertir une centaine de ses 265 centres dans le monde à l’IA générative. Le restant est trop ancien pour accueillir la puissance électrique et les infrastructures de liquid cooling nécessaires. Mais ils ne seraient pas non plus à jeter à la poubelle, tempère le dirigeant. « Il y a encore une informatique traditionnelle qui en a besoin. L’IA ne représente pas l’informatique mondiale. C’est une petite partie du marché, même si elle grandit très vite ».

Des tensions à Marseille

Cette différence de temporalité entre la vitesse des modèles d’IA et le temps de l’infrastructure de l’autre, créée une tension inédite. En juin dernier, The Information rapportait que Jensen Huang, PDG de Nvidia, serait particulièrement inquiet par la lenteur de ses principaux clients – les géants du cloud Amazon et Microsoft – à s’adapter.

Ces mastodontes, qui investissent pourtant des centaines de milliards de dollars, ne construiraient pas assez vite de nouvelles infrastructures de calcul à ses yeux. Le sujet a fait l’objet d’une série de réunions avec les hauts cadres de l’entreprise, précise le média américain.

Mais jusqu’où les data centers peuvent-ils s’étendre pour satisfaire les besoins insatiables des géants de l’IA ? A Marseille où ces centres se multiplient, attirés par les 18 câbles sous-marins qui arrivent sur les plages du Prado, ils entrent en concurrence directe avec d’autres activités économiques, mais aussi la préservation des sols et de la biodiversité.

« Quand j’ai commencé mon mandat, il y avait deux data centers sur le port de Marseille, aujourd’hui le cinquième est en construction, raconte Christophe Mirmand, préfet de la région Provence-Alpes-Côte d’Azur. Six autres sont en projet en dehors de la zone du port qui est désormais saturée. Et quatre autres sont également en projet dans d’autres communes proches », expose-t-il.

Cette « crise de croissance » du secteur, comme la nomme le préfet, est devenue un enjeu politique et sociétal majeur pour la métropole et sa région. En témoignent les fortes tensions autour du « MRS5 », le cinquième centre de données de Digital Realty sur le port de Marseille, qui fait l’objet d’une enquête publique jusqu’au 27 septembre.

Il y a quelques jours, des associations ont tenu une conférence de presse dénonçant l’accaparement du foncier par l’entreprise américaine et les conflits d’usages qui en émergeaient.

« Il faut choisir entre l’électrification des bus ou des quais pour les bateaux de croisière ou encore celle de ces data centers, qui accaparent ainsi l’énergie disponible en lieu et place de nos infrastructures et services publics. Faudra-t-il un jour choisir entre alimenter un data center ou un hôpital ? », s’interroge le collectif « Le nuage était sous nos pieds ».

Bientôt l’ère des giga data centers

Ailleurs, cette frénésie de construction commence déjà à trouver des limites physiques. En Irlande, où la consommation électrique des data centers dépassent depuis juillet celles des maisons en ville, la région de Dublin est désormais soumise à un moratoire sur la construction de nouveaux data centers. L’opérateur EirGrid a déclaré qu’il ne se pencherait sur aucune nouvelle demande d’agrément avant 2028.

Pourtant, l’ambition des géants du secteur ne semble pas avoir pris en considération ces limites. Selon The Information, deux entreprises de la tech seraient en train d’envisager la construction de deux « giga data centers » aux États-Unis, qui consommeraient au départ 1 gigawatt, pour arriver d’ici à quelques années à une consommation de 5 à 10 gigawatts – contre autour de 200 mégawatts pour les plus gros en France -, coûtant chacun 125 milliards de dollars.

https://www.latribune.fr/

** **

Commentaire

De mieux en mieux. On savait que les data centers consommaient beaucoup d’eau, beaucoup d’énergies. Comme il faut se battre contre le réchauffement climatique, il faudra construire des giga data centers !

Cherchez la giga erreur !!!