Derrière les cinq couches de sécurité d’un nouveau site francilien, une philosophie : construire vite, construire double et ne jamais couper.
Cinq couches de sécurité. C’est ainsi que démarre la visite : “On a conçu le site un peu comme un oignon.” Le ton est donné. Derrière la porte verte de la salle serveur, une autre logique prend le relais. Celle d’un opérateur qui traite l’infrastructure comme une ligne de production.
Des conteneurs, pas des bâtiments
Le cœur électrique du site repose sur deux modules préfabriqués. L’idée : tout assembler en usine — cellules haute tension, transformateurs, onduleurs, batteries —, livrer clé en main, déployer en six mois. Traditionnellement, ces équipements sont installés indépendamment, câblés un à un par différents prestataires sur site : une perte de temps et un risque supplémentaire.
La fonction des onduleurs : lisser la tension en sortie du réseau public, dont les variations sont incompatibles avec les exigences des serveurs. En cas de coupure, les batteries prennent le relais le temps que les groupes électrogènes démarrent. Et si un module tombe — incendie, défaut électrique — le second prend intégralement le relais. “Ça ne peut pas couper. C’est impossible.”
Le site est dimensionné selon les standards Tier III, avec une disponibilité opérationnelle qui approche du continu. Ce niveau reste rare dans le Edge. Chez les hyperscalers, c’est la norme ; sur les Edge Data Centers, on se situe plutôt autour du Tier II+. Ici, l’accueil de charges à haute densité impose un niveau d’architecture supérieur.
Le refroidissement, ou l’art du free cooling
Sur la toiture, les groupes froids et les modules hydrauliques — eux aussi préassemblés en usine. Toute la tuyauterie, les vannes, les ballons sont montés en amont : sur site, il ne reste qu’à raccorder.
Le principe : les armoires de climatisation en salle aspirent l’air chaud produit par les serveurs, l’échangent contre de l’eau froide, puis rejettent l’air refroidi en ambiance. La chaleur remonte jusqu’aux groupes froids en toiture, qui l’évacuent vers l’extérieur. Il s’agit d’un transfert de chaleur, pas d’une production de froid.
En hiver, seuls les ventilateurs tournent — c’est le free cooling, qui exploite la fraîcheur de l’air extérieur sans activer le cycle frigorifique. En été, au-delà de 25 °C, le compresseur entre en jeu.
Résultat : un PUE de 1,2. Pour 1 kW consommé par les serveurs, le site n’en consomme que 0,2 supplémentaire pour fonctionner. La moyenne du parc français se situe plutôt entre 1,5 et 1,6 — parfois 2. L’écart s’explique notamment par le choix du couloir chaud : au lieu de produire de l’air à 18 °C sous faux plancher, la salle est maintenue à 24 °C en ambiance. Six degrés de moins à générer, et une facture énergétique allégée.
Couleurs, gaines et brosses : l’ingénierie du détail
En salle de colocation, les chemins de câbles sont codés par couleur : rouge pour la voie A, bleu pour la voie B, jaune pour la fibre. Un principe simple, mais déterminant pour limiter les erreurs humaines lors des interventions.
Même logique pour les brosses intégrées dans les passages de câbles : elles maintiennent l’étanchéité des allées chaudes, limitent les mélanges d’air et permettent d’ajouter des équipements sans démontage.
La détection incendie repose sur un double système aspirant, avec deux niveaux de sensibilité afin de limiter les faux positifs tout en assurant une détection précoce. En cas d’alarme confirmée, des bouteilles d’azote injectent le gaz pour chasser l’oxygène, sans résidu chimique.
Dans la salle opérateurs, les arrivées réseau entrent par deux côtés opposés du bâtiment : une redondance physique, et pas seulement logique. Le site est déjà connecté à 36 opérateurs. Une organisation pensée pour réduire les interfaces, et donc les risques : la majorité des incidents en data center reste liée à des erreurs humaines.
Géorapatriation : le vrai sujet derrière la souveraineté
C’est dans l’échange avec Louis Blanchot que l’angle stratégique se précise. Les enjeux ne se limitent pas à la sécurité ou à l’efficacité énergétique. Le vrai sujet, c’est la vitesse de déploiement — et, en creux, la dépendance.
“Les opérateurs sont confrontés à un enjeu de time to market. Trouver de la puissance électrique devient difficile. Les hyperscalers et les acteurs de l’IA saturent progressivement le réseau.”
Sur la souveraineté, le constat est sans détour : le terme est devenu largement marketing. Héberger en Europe ne suffit pas si les infrastructures restent soumises à des législations extraterritoriales.
Le phénomène marquant du marché est celui de la géorapatriation : des entreprises rapatrient leurs données sensibles hors des clouds publics vers des infrastructures physiques qu’elles contrôlent. Des groupes du CAC 40 et du SBF 120 hébergent ainsi leurs propres serveurs sur site. L’opérateur fournit l’infrastructure, sans accès aux données. Une forme de cloud on-premise, entièrement maîtrisée.
La logique n’est pas celle d’une souveraineté absolue, mais ciblée : protéger les données stratégiques, celles qui constituent un avantage concurrentiel.
Paris, puis Lyon, puis…
Etix Everywhere opère aujourd’hui 13 data centers en France, un en Belgique et un en Thaïlande. La stratégie repose sur un maillage territorial : Paris comme hub, les régions comme relais. L’axe Lille-Paris structure déjà les besoins clients, avec des logiques de redondance géographique. Demain, d’autres villes viendront compléter ce réseau.
En interne, cette approche modulaire est parfois comparée à une logique Lego : chaque module ajouté intègre sa propre redondance, et le bâtiment est conçu dès l’origine pour évoluer. De quoi tenir une promesse clé dans ce marché : six mois entre la commande et la mise en service.








