Accueil Datacenter Datacenters : l’IA, nouveau moteur de la dispersion des infrastructures

Datacenters : l’IA, nouveau moteur de la dispersion des infrastructures

Louis Blanchot, CEO Etix Everywhere
Louis Blanchot, CEO Etix Everywhere

L’IA dope la demande en puissance de calcul et fait émerger des campus géants capables d’engloutir des gigawatts. Une autre dynamique s’impose en parallèle : la relocalisation du traitement de la donnée. Pour Louis Blanchot, CEO d’Etix Everywhere, l’essor de l’IA rend désormais incontournable un maillage régional d’infrastructures. Notamment pour désengorger les réseaux, améliorer la résilience et rapprocher les ressources informatiques des entreprises comme des utilisateurs.

Les grands axes télécoms deviennent des zones stratégiques et ancrage local

Si les plus grands campus se concentrent historiquement à Paris et Marseille, c’est que connectivité et échanges de trafic y étaient massivement centralisés. « Les opérateurs télécoms se sont longtemps installés sur quelques hubs européens : Francfort, Amsterdam, Londres, Paris », rappelle Louis Blanchot. Mais cette vision est en train de changer.

Datacenter d’Etix, à Nantes.

Les grands axes de fibre exigent davantage de résilience. Tous les 80 kilomètres, les opérateurs doivent répliquer le signal, un point technique essentiel qui ouvre une opportunité : implanter des infrastructures capables non seulement de “réallumer” le signal, mais aussi d’héberger de la donnée au plus près des utilisateurs.

Lille illustre parfaitement ce basculement. Située sur des routes télécoms critiques, la ville voit affluer opérateurs, intégrateurs et fournisseurs cloud régionaux. « Traiter localement une donnée émise localement, c’est éviter de saturer les tuyaux entre Lille et Paris », explique le CEO. Le sujet de la latence, souvent avancé, ne représente selon lui que 10 % des usages réels. Le véritable enjeu est ailleurs : efficacité réseau, souveraineté locale et décentralisation.

L’IA pousse à construire toujours plus… mais pas toujours au même endroit

L’IA générative et l’explosion des besoins de machine learning appellent des mégastructures pour entraîner les modèles. « On ne parle plus en mégawatts, mais en gigawatts », constate Louis Blanchot. Ces hyperscales sont indispensables pour les géants du secteur, OpenAI, Google, Anthropic, mais ils ne remplaceront jamais un maillage local.

Déjà sous tension avant l’IA, Paris et Marseille ne disposent plus de suffisamment d’espace ni de puissance électrique pour absorber seuls la future croissance. « Paris et Marseille ne pourront pas accueillir tous ces campus, c’est impossible », tranche le patron d’Etix Everywhere. Résultat : la décentralisation devient une nécessité mécanique.

Pour les territoires, cette proximité représente un levier de développement. Contrairement aux hyperscalers, qui bâtissent des infrastructures dédiées à un unique client, un opérateur régional adresse des centaines d’acteurs locaux : collectivités, entreprises, infogéreurs, fournisseurs cloud. « C’est le layer 0 du numérique », résume Blanchot, comparant son rôle à celui d’un aéroport régional permettant de fluidifier le trafic national.

50 millions en plus pour le développement

Etix Everywhere annonce aujourd’hui un nouveau financement de 50 millions d’euros destiné à soutenir son plan de développement, notamment la finalisation du data center de Lille, qui sera inauguré le 22 janvier. Contrairement à ce que pourrait laisser penser le montant, il ne s’agit pas d’une levée de fonds classique. “ Quand on dit 50 millions, ce n’est pas une levée de fonds “, précise Louis Blanchot. ” C’est un financement de dette destiné à refinancer nos engagements initiaux et à disposer d’une poche pour accompagner nos projets de développement “. Ce financement s’inscrit dans un dispositif plus large : après plusieurs levées de fonds réalisées auprès d’Eurazeo et Infranity, Etix Everywhere a sécurisé cette année un refinancement majeur auprès de cinq banques, dont la Banque Postale, BNP Paribas et BPI.

Pour Louis Blanchot, une chose est claire : l’avenir du traitement de la donnée sera hybride, mêlant hyperscales pour les workloads massifs et datacenters régionaux pour le reste. L’IA ne centralise pas l’infrastructure : elle en accélère au contraire la dispersion.