Accueil Datacenter Tendances 2025 : l’IA recompose le paysage des datacenters

Tendances 2025 : l’IA recompose le paysage des datacenters

© Yves Grandmontagne

Si la vague de l’intelligence artificielle (IA) a emporté tous les suffrages en 2025, elle cache en réalité un riche univers des datacenters en mutation, où les infrastructures de cloud dominent mais où l’IA impose désormais ses règles.

 

En février 2025, le gouvernement français lançait son Sommet pour l’IA. Le président Emmanuel Macron annonçait « 109 milliards d’euros d’investissements dans l’intelligence artificielle ». Le chiffre est astronomique, à la hauteur de l’ambition de faire de la France un acteur incontournable de l’IA mondiale. Il place la France en numéro trois de l’IA dans le monde. Cette technologie est bien la vague qui aura marqué l’année 2025 et se prolongera longtemps encore. C’est pourquoi elle est inévitablement le fil rouge des tendances du datacenter en 2025.

Il est intéressant de décrire le projet IA porté par la France car il est emblématique de la réalité du marché. Le montant astronomique, tout d’abord, est apporté en majorité par les Émirats arabes unis via le fonds MGX d’Abou Dabi : 50 milliards d’euros qui seront consacrés à la construction d’un campus IA d’un gigawatt (1 GW), le plus grand d’Europe. Le canadien Brookfield Asset Management (majoritaire au capital de Data4) apportera 20 milliards d’euros supplémentaires, répartis en 15 milliards pour un méga-datacenter de 1 GW à Cambrai et 5 milliards pour les infrastructures associées. La britannique Fluidstack devrait également investir 10 milliards dans un supercalculateur d’IA de 1 GW. Les américains Digital Realty (5 milliards), Apollo Global Management (5 milliards), Prologis (3,5 milliards) et Equinix (630 millions) sont bien présents. Les investisseurs français, Mistral AI via Eclairion, Iliad (3 milliards) et Sesterces (400 millions) sont plus anecdotiques mais permettent d’évoquer une IA française. Américains et Émiratis s’affichent clairement en principaux financeurs de l’IA !

Steven Carlini, vice-président Innovation and Data Center, Schneider Electric

Ces 109 milliards iront pour un peu plus de la moitié – 60 milliards d’euros, soit environ 55 % – aux infrastructures physiques d’IA, datacenters et compute (GPU). La répartition sur ce type de projet est de 40 % pour l’infrastructure physique (foncier, construction, bâtiment, énergie, refroidissement, réseau) et 60 % pour le compute et matériel IA (serveurs GPU, stockage, réseaux IT, software). 20 % des investissements iront à l’énergie et à la durabilité, 15 % seront destinés à l’écosystème IA et aux start-up, 7 % à la formation et aux compétences (former de 40 000 à 100 000 personnes par an, principalement des jeunes) et 3 % à la souveraineté et à l’attractivité. On le voit, la vague de l’IA se révèle large et complexe, et ses usages touchent déjà tous les secteurs de l’économie et de la société.

Tendance 1 : hyperscale et cloud

Sundar Pichai, P-DG d’Alphabet

En 2025, 70 % des dépenses en infrastructures proviennent des hyperscalers, AWS, Microsoft et Google (source Synergy Research Group). La progression de leurs infrastructures, qui se chiffre de 60 milliards à 80 milliards de dollars d’investissements annuels pour chacun d’entre eux, en augmentation, ne concerne pas directement l’IA mais en priorité le cloud, qui est la base de leurs revenus. La barre des 40 % de workloads dans le nuage a été dépassée, le mouvement du on premise vers le cloud, initié il y a une vingtaine d’années, ne ralentit pas. Ainsi, ceux que l’on surnomme les Gafam investissent massivement dans de grands campus de datacenters. Mais auparavant, ils se tournent vers les acteurs de la colocation – Equinix et Digital Realty pour citer les plus grands – qui servent de relais avant qu’ils ne considèrent qu’il est plus rentable pour eux de s’implanter directement localement. Lorsqu’un de ces acteurs de la colocation annonce un projet de datacenter, il est généralement réservé par un géant du cloud à hauteur de 80 à 100 %. En France, on retiendra de l’année 2025 qu’elle aura été celle de l’annonce de la bascule des hyperscalers de la colocation vers leurs propres infrastructures. Microsoft et Google peaufinent leurs projets, les collectivités locales rivalisent pour attirer leur attention et les milliards de dollars qu’ils vont investir.

Tendance 2 : des infrastructures pour l’IA

 

« Le datacenter de demain sera aussi une centrale électrique. »
Sylvie Jéhanno, directrice générale de Dalkia

Malgré la pression géopolitique et les revirements du Président Trump, les craintes associées aux investissements massifs et aux risques de bulles spéculatives (sur des marchés, des entreprises et des technologies) autour de l’IA rencontrent des démentis via les résultats trimestriels des grandes entreprises du numérique. AWS, Microsoft, Google et Meta ont investi des capitaux considérables dans l’IA et dans le recrutement d’experts, la Bourse de Wall Street leur donne raison et les invite à continuer. Ces géants, et ceux qui les ont rejoints – Nvidia, OpenAI (ChatGPT), Oracle, Apple – vont continuer de tirer le marché vers le haut. Pour autant, cela ne concerne que les grands acteurs de l’apprentissage et des LLM (Large Language Model), les grands modèles de langage pour l’apprentissage automatique, capables de comprendre nos questions et de générer des réponses multi-formats. Les gros projets d’investissements concernent donc en priorité les quelques grands modèles, comme ChatGPT, Gemini, Mistral AI, etc., qui ont besoin d’infrastructures gigantesques concentrées dans des datacenters monstrueux pour fonctionner et créer les bases de références. Et qui, à presque 100 % américains, cherchent désormais à s’implanter sur des territoires potentiellement riches, de proximité pour abaisser la latence et qui apportent une réponse aux attentes de souveraineté.

La demande liée à l’IA ne cesse de s’intensifier. Dès 2024, les premiers LLM rendus accessibles ont reposé sur les infrastructures de cloud, à l’image du partenariat établi entre OpenAI et Microsoft, ce dernier hébergeant les workloads d’IA de ChatGPT sur son cloud Azure. La montée en puissance qui, selon IDC, s’est traduite par une croissance de 44 % du marché mondial des GPU (les puces sur lesquelles se basent l’apprentissage puis l’inférence) a reposé sur les acteurs de l’hyperscale, AWS, Microsoft et Google. En 2025, nous assistons à une bascule, celle de la demande vers les entreprises traditionnelles. La phase d’expérimentation des premières IA est passée, les entreprises peuvent enfin envisager des ROI (retour sur investissement) sur leurs projets d’IA. Cette nouvelle phase, qui intervient très rapidement et sans rupture avec la précédente, va concerner les IA personnalisées, à l’image du RAG (Retrieval Augmented Generation) qui consiste à intégrer dans le modèle de base d’IA générative les données privées et sécurisées de l’entreprise. Mais surtout l’inférence, c’est-à-dire les usages des IA, dans des infrastructures de proximité (datacenters edge) ou on premise (datacenters privés), à la fois pour répondre aux attentes de sécurité, de souveraineté et de réduction de la latence. C’est une des tendances liées à l’IA : le retour vers des infrastructures privées et/ou hybrides qui protègent des lois américaines comme le Cloud Act.

Tendance 3 : densifier et refroidir

Même si elles subissent l’influence des évolutions technologiques, qui se traduisent par un renouvellement régulier des équipements IT (serveurs, stockage et réseaux) au rythme des générations de processeurs, les infrastructures des datacenters de cloud, de gestion (ERP et CRM) et de bureautique demeurent « classiques ». Concrètement, ces infrastructures réclament une énergie de 5 à 10 kW au rack (baie informatique), un refroidissement par air avec optimisation par confinement, pour un coût de quelques dizaines de milliers d’euros. L’IA change la donne, elle demande une infrastructure spécialisée reposant sur des GPU. Un serveur avec plusieurs GPU Nvidia de dernière génération représente un investissement de 3 millions à 4 millions de dollars. La consommation électrique demande 100 kW, voire 300 kW pour la dernière génération de plateforme GPU, et cible le 1 MW au rack (annonce Google lors du dernier OCP Summit). Et il va falloir renforcer les faux planchers…

Google et Meta visent 80 % de liquid cooling d’ici 2027.

Face aux limites atteintes par le refroidissement par air (efficace jusqu’à 50 kW par rack), la densification des infrastructures impose de revoir la copie technique du datacenter et d’adopter de nouvelles technologies de refroidissement par liquide plus efficace pour l’échange de chaleur. Deux approches s’affrontent : le DLC (Direct Liquid Cooling), qui consiste à intégrer un circuit de refroidissement liquide jusque sur une plaque d’échange thermique au contact de la puce qui émet la chaleur, GPU ou processeur ; et l’immersion, qui consiste à plonger le serveur dans une huile diélectrique qui assure les transferts caloriques. Cette dernière solution, qui n’a rien de nouveau dans l’industrie, est probablement la plus efficace mais elle se heurte encore à des résistances culturelles. L’année 2025 marque donc la large victoire du DLC, en particulier chez les hyperscalers qui donnent le la des tendances technologiques. Densifier ses infrastructures jusqu’aux serveurs d’IA impose de revoir la copie du datacenter, de ses équipements et de ses pratiques (urbanisation et pilotage) afin d’accueillir un refroidissement adapté.

© Yves Grandmontagne

Associée au refroidissement, évoquons l’exploitation de la chaleur fatale. En consommant de l’énergie, les équipements du datacenter – en particulier les serveurs – produisent de la chaleur, qui est captée par les systèmes de refroidissement avant d’être dispersée. Cela représente une importante source d’énergie perdue, nommée « chaleur fatale ». Une exploitation de cette chaleur est possible, localement – bureaux, serres agricoles, aquaculture, etc. – ou à plus grande échelle sur un territoire – alimenter une boucle de chaleur locale, des logements sociaux, un hôpital, une piscine, etc. On estime que la récupération de 1 MW de chaleur permet de chauffer 500 logements. Mais ces pratiques se heurtent à des difficultés : absence de boucle locale, différentiel entre la chaleur en sortie du datacenter (faible) et celle dans le réseau (élevée) qui nécessite des pompes à chaleur pour réchauffer l’air, sans oublier le coût financier de ces installations. L’exploitation de la chaleur émise par le datacenter demeure une piste à explorer et une tendance forte à venir qui fera certainement l’objet de nouvelles réglementations pour s’imposer.

Tendance 4 : alimenter les infrastructures

« Le plus gros défi de l’IA, c’est l’énergie. »
Urs Hölzle, SVP Infrastructure chez Google

Toutes les évolutions que nous avons évoquées précédemment aboutissent à un phénomène inévitable : la consommation énergétique des datacenters est en forte hausse. Selon l’AIE, (Agence internationale de l’énergie), en 2022, les datacenters ont représenté 1,5 % de la consommation électrique mondiale. Et ils pourraient atteindre 4 % en 2030. C’est certes marginal par rapport à la consommation énergétique de secteurs comme le transport, la métallurgie ou la santé mais c’est suffisant pour attirer les foudres de nombreux détracteurs. C’est également inévitable puisque l’électrification est devenue la norme et que nous consommons toujours plus de données qu’il faut transporter, traiter et stocker. Les infrastructuresd’IA viennent accentuer ce phénomène, elles devraient représenter 20 % des espaces de datacenters et 40 % de leur consommation énergétique avant 2030. La problématique qui lui est associée est que, dans de nombreuses régions du monde, la production énergétique locale mais aussi le réseau pour le transport de l’électricité sont insuffisants pour répondre à cette demande. En France, le sujet est moins la production d’électricité, suffisante du fait du mix énergétique nucléaire, énergies renouvelables et centrales gaz. Le duo EDF et RTE assure d’ailleurs qu’ils seront capables de répondre à la demande au fur et à mesure que les projets arriveront à terme. C’est plutôt la distribution de cette électricité, avec des réseaux de sous-stations insuffisants, qui pose problème. Nous sommes cependant loin du modèle américain, déficient sur tous les sujets.

Selon la Comission européenne, la consommation électrique des datacenters en Europe était de 76,8 TWh en 2018. Elle devrait atteindre 98,5 TWh en 2030, soit une augmentation de 28 %.

Pour répondre à cette tendance, des solutions existent ou s’annoncent et passent quoi qu’il arrive par une optimisation de l’efficacité et de la sobriété. On le voit avec l’exemple de l’adoption de la norme Ashrae TC 9.9 pour augmenter les températures admissibles dans les salles informatiques jusqu’à 27 °C, qui permet de réduire la consommation des serveurs « classiques » de l’ordre de 30 %. Pour répondre aux délais de plusieurs années imposés par RTE sur les projets importants (de 100 MW à 1 GW et plus) et pour réduire les temps de construction, le datacenter prend généralement en charge la construction de la sous-station qui l’alimentera. Plus anecdotique, notons le déploiement de panneaux solaires. En fait, la plus grande révolution énergétique est à venir : le datacenter va produire sa propre énergie en investissant dans la production locale ou dans les PPA (Power Purchase Agreement), des contrats d’achat d’électricité conclus à long terme avec des producteurs qui financent ainsi leurs installations de production d’énergie verte, voire en installant dans l’enceinte du datacenter des centrales gaz (vert) de production d’électricité ou encore de futurs SMR (Small Modular Reactor) nucléaires, qui offriront qui plus est la capacité de se substituer au secours des groupes électrogènes. Rappelons qu’en France, le décret tertiaire impose une réduction progressive de 40 % de la consommation énergétique d’ici 2030 par rapport à 2010.

Tendance 5 : réglementation, souveraineté et acceptabilité

« Nous aurons toujours besoin de plus de capacité. »
Dan Fuentes, SVP Enterprise de DataBank

Dublin, Amsterdam, Francfort, Singapour… Les grands hubs de datacenters s’inquiètent de la place qu’ils occupent sur leurs territoires, et en particulier de leur consommation énergétique. La pénurie électrique ayant conduit au gel ou au report de certains projets, ces hubs vont jusqu’à imposer des moratoires à la construction de nouveaux datacenters, tandis que d’autres fixent des limites environnementales. La réglementation s’empare du sujet et fixe de nouvelles règles, souvent restrictives. Même si les gouvernements se montrent souvent conciliants avec l’industrie du datacenter – à l’image de l’administration Trump qui écarte les limites environnementales imposées par celles qui l’ont précédée ou de la volonté du gouvernement français de favoriser leur implantation –, la réglementation se fait de plus en plus contraignante. Au niveau européen, la norme Digital Green Certificat impose aux nouvelles installations un PUE (Power Usage Effectiveness) maximal inférieur à 1,3, un taux d’utilisation des énergies renouvelables supérieur à 50 % et des rapports publics sur les émissions de CO₂ et de chaleur fatale. C’est ainsi que la Commission européenne pousse les opérateurs à intégrer les datacenters dans la taxonomie verte.

Des sujets aussi sensibles favorisent inévitablement les oppositions. 2024 avait vu l’émergence des premiers mouvements citoyens opposés aux datacenters, avec parfois des oppositions frontales. Un projet d’AWS, objet de plusieurs plaintes de mouvements écologistes, a par exemple été suspendu à Barcelone pour non-conformité écologique. En France, c’est Marseille qui concentre les oppositions, quelques élus en ayant fait leur cheval de bataille. Châteauroux, où Google envisage de déposer ses serveurs pour la France, pourrait prendre la relève d’une opposition souvent mal informée mais qui peut se montrer virulente.

L’année 2025 vient confirmer le glissement vers une réglementation européenne qui influence fortement le secteur du datacenter en imposant des objectifs contraignants et des exigences précises qui encadrent la consommation énergétique et en eau, l’efficacité et l’impact environnemental. La pression réglementaire croissante pourrait notamment rendre obligatoire la réutilisation énergétique. Pour autant, certaines législations prévoient des mesures fiscales incitatives (taxation réduite de l’électricité) pour les datacenters qui valorisent leur chaleur fatale ou respectent des limites sur la consommation d’eau. Ces réglementations ont un effet structurant sur les pratiques technologiques et industrielles. Elles poussent à adopter des technologies avancées, comme le refroidissement liquide et l’utilisation accrue d’énergies renouvelables, et à intégrer l’IA pour optimiser la gestion énergétique et la maintenance. C’est une tendance forte qui s’inscrit dans un contexte de la croissance rapide des besoins en calcul et stockage de données – notamment sous l’impulsion de l’IA – et qui rend la transition écologique inévitable et urgente. Elle oblige les datacenters à adopter une gestion opérationnelle rigoureuse, orientée vers la mesure précise, la transparence, l’optimisation énergétique continue et la valorisation systématique des ressources thermiques. Elle pousse également à mettre en place des stratégies d’acceptabilité afin que les datacenters s’inscrivent politiquement et socialement dans les  paysages urbains et périurbains.

Tendance 6 : la recomposition du paysage des datacenters

On l’a compris, le marché du datacenter, tout du moins celui qui occupe les médias, est concentré entre quelques mains, celles des Gafam, dont les géants du cloud qui occupent environ 80 % des nouvelles installations qui fleurissent dans les hubs numériques (Paris, Marseille, Virginie du Nord, Londres, Francfort, etc.). Ils sont secondés par les sociétés foncières immobilières REIT (Real Estate Investment Trust), telles que Digital Realty ou Equinix, qui jouent un rôle majeur dans le financement des datacenters de colocation, transformant ces infrastructures en véritables actifs d’investissement. Des investissements rentables dans un monde de l’immobilier professionnel qui s’effondre du côté du retail et peine à se maintenir dans la logistique. C’est pourquoi tous les fonds d’investissements immobiliers et d’infrastructures s’intéressent aux datacenters et cherchent à y investir, donnant l’impression, réelle au demeurant, que l’argent coule à flot.

Ajoutons la vague de l’IA… Depuis 2024, les déploiements massifs de modèles d’IA générative ont profondément transformé les besoins en infrastructures numériques, d’abord aux États-Unis qui cumulent 70 % de ces infrastructures, et désormais dans les grandes régions de production numérique. La problématique liée à la capacité des nouveaux datacenters à supporter la consommation énergétique de ces infrastructures émerge, car un GPU est très énergivore. L’IA soulève également d’autres problématiques : techniques, avec le refroidissement (DLC) et l’urbanisation des salles informatiques et des serveurs ; de proximité avec la réduction des temps de latence, la protection des données et la souveraineté et enfin d’infogérance et de maintenance, à la recherche de compétences nouvelles.

Autre tendance de recomposition du secteur qui prend enfin son envol en 2025 : le développement du edge computing. Il consiste à traiter les données à la périphérie du réseau, près des sources et des utilisateurs finaux, ce qui est crucial pour diminuer la latence et augmenter l’efficacité. Cette logique a émergé avec la 5G et l’IoT – deux marchés qui déçoivent car ils peinent à s’imposer – et du fait des attentes des territoires en matière d’infrastructures de proximité et souveraines. S’y ajoute désormais l’inférence des IA et les modèles RAG, porteurs des mêmes attentes, ce qui entraîne une multiplication des petits datacenters déployés dans les zones urbaines ou métropolitaines, en complément des grands centres hyperscale situés en zones périurbaines. Ces datacenters de proximité, de taille autrement plus raisonnable que leurs grands frères, sont également plus facilement déployables dans des zones qui ne sont pas sous tension électrique et permettent la clusterisation des infrastructures, gage d’une sécurité renforcée. Rappelons que la conformité aux réglementations en matière de protection des données est devenue un axe stratégique majeur.

© Yves Grandmontagne

Tout cela nous mène à une dernière tendance forte liée à la recomposition du paysage : celle de la consolidation du marché des datacenters. Selon unmouvement économique naturel, le secteur connaît une accélération des fusions-acquisitions. CBRE rapporte une hausse de 20 % des opérations de consolidation entre 2023 et 2025. Face à un coût moyen de construction des datacenters qui a augmenté de plus de 20 % en un an, pour atteindre environ 11 000 euros du mètres carré, la concentration des acteurs permet d’élever le point d’équilibre financier de projets toujours plus gourmands en Capex. Elle offre une meilleure optimisation des coûts fixes et une extension des capacités techniques. Selon le Gartner, plus de 50 % des workloads seront centralisés dans des micro-datacenters.

Conclusion : 2025 préfigure la nouvelle génération des datacenters

À quoi ces grandes tendances du datacenter en 2025 vont-elles aboutir ? La transformation modifie profondément la manière dont les opérateurs conçoivent et pilotent leurs infrastructures, planifient leurs investissements et interagissent avec les territoires et le cadre réglementaire. Nous assistons à la création d’un nouveau modèle de datacenters, élaboré et construit autour de la couche IT haute densité afin d’accueillir les infrastructures d’IA, modulaire et préfabriqué, disposant d’un refroidissement durable, consommant peu d’eau, capable de réutiliser la chaleur et dans le respect de la conformité réglementaire. Cerise sur le gâteau, ce nouveau datacenter va refermer la boucle de l’IA : récepteur des infrastructures d’IA, il verra également revenir à son service non plus seulement une charge de travail mais aussi un outil d’optimisation. Pilotés par l’IA, les systèmes ajusteront dynamiquement la consommation énergétique et le refroidissement et anticiperont la maintenance, augmentant ainsi l’efficacité opérationnelle et la fiabilité des datacenters et réduisant les coûts. Un juste retour des choses et un gage de succès pour un secteur qui n’a pas fini de se transformer.


Le président Macron investit l’IA pour une nouvelle ère de progrès

Le 9 février 2024, à la veille du Sommet mondial de l’intelligence artificielle qui s’est tenu à Paris, le président Emmanuel Macron a annoncé « 109 milliards d’euros d’investissements dans l’intelligence artificielle dans les prochaines années ». Estimant que l’IA permettra « de mieux vivre, mieux apprendre ou encore mieux soigner » et de s’éviter « des tâches très répétitives », il a souhaité que la France se saisisse de cette « nouvelle ère de progrès ».


Les datacenters privés reprennent des forces

Le datacenter et la salle informatique privés ont encore leur mot à dire. Même si la part du cloud ne cesse de grandir, 60 % des charges de travail s’exécutent aujourd’hui encore sur des infrastructures propriétaires on premise ou hébergées. Les applications métiers spécifiques comme les données critiques continuent d’interpeller les DSI et leurs entreprises qui souhaitent garder la main sur leur informatique. Et l’IA n’échappe pas à cette règle, rendue d’autant plus sensible que les outils de LLM s’attribuent les données des entreprises en se moquant des règles et de la confidentialité. Ainsi, selon Gartner, en 2025, près de 60 % des datacenters investiront dans des processeurs d’IA dédiés, comme les GPU.

 

Yves Grandmontagne

heloisem