Accueil Les 9 orientations technologiques

Les 9 orientations technologiques

Nous avons longuement échangé avec l’écosystème du datacenter, et repéré neuf grandes tendances de ce marché

 

L’explosion de la data et des usages

Le marché du datacenter explose, les projets se multiplient de par le monde. Mais que l’on ne se trompe pas, ce n’est pas l’industrie qui pousse à la construction et à la consommation des datacenters, mais bien nos usages. Nous créons toujours plus de données, plus de services, sur une multitude de supports, dont le cloud, avec des process de duplication à n’en plus finir, et qu’il faut stocker quelque part… Selon Forrester, nous doublons le volume des données numériques tous les trois ans, et dès 2025 le rythme sera de deux ans.

La concentration autour des hubs et des câbles sous-marins

Historiquement, les principales concentrations de datacenters se sont construites autour de grands centres urbains, gros consommateurs de connectivité et riches d’entreprises. C’est ainsi qu’en Europe est née FLAP, pour Francfort, Londres, Amsterdam et Paris. Les géants du cloud, lorsqu’ils construisent leurs propres datacenters en Europe, ont recherché en priorité le froid de la Norvège et de la Suède pour le refroidissement free cooling (qui exploite le froid extérieur) et pour l’énergie décarbonée (hydraulique et éolien). Mais face aux évolutions réglementaires de type RGPD ou souveraineté, ils cherchent à créer des régions aux contours frontaliers et donc s’implantent dans les gros datacenters en colocation des centres urbains dans les pays concernés.

Un nouveau phénomène émerge, une guerre sourde s’installe autour des points d’atterrissage des câbles sous-marins. L’exemple de Marseille, où atterrissent 14 câbles en provenance d’Asie, du Moyen-Orient, d’Afrique et d’Amérique latine, et qui est en passe de devenir le 5ème hub mondial (la France deviendrait ainsi le premier pays européen avec deux hubs stratégiques sur son territoire), attise toutes les attentions. Interxion a emporté la mise à Marseille, Equinix s’est repris en remportant l’arrivée du câble Amitié financé par Facebook à Bordeaux. Les points de terminaison des câbles sous-marins qui parcourent la planète sont stratégiques.

Un investissement rentable

Si la tendance n’est pas encore à la consolidation, elle est au placement rentable, et les grands datacenters sont devenus une valeur sûre pour les investisseurs. Alors que dans l’immobilier les centres commerciaux reculent face à l’e-commerce, et les bureaux doivent supporter les espaces vides suite au télétravail, la construction des datacenters s’accélère et représente un potentiel de rentabilité d’un point supérieur aux autres secteurs. Dans l’immobilier, 1 % de rentabilité quand les investissements se chiffrent en centaines de millions de dollars, on comprend l’intérêt des investisseurs.

L’efficacité énergétique et le refroidissement

L’électricité est le premier compte de dépense dans le datacenter. Et longtemps le refroidissement a été le plus gros consommateur d’électricité. Le PUE, le ratio de l’énergie consommée par l’IT face à l’énergie consommée par le datacenter, a été largement défavorable pour ce dernier. Au début des années 2000, le PUE d’un datacenter était au mieux de 2,5, c’est-à-dire que quand l’informatique consommait 1 KW, les opérations du datacenter consommaient 1,5 KW. Aujourd’hui, selon l’Uptime Institute le PUE moyen est de 1,5. Et les datacenters récents évoluent vers un PUE de 1,3 (au Nord) à 1,4 (au Sud). Les équipementiers du datacenter se sont montrés vertueux, la plus grande avancée a porté sur le free cooling. Demain, un PUE de 1,05 avec les datacenters en immersion (les serveurs sont plongés dans un bain liquide à base de fluorocarbone), mais n’allons pas trop vite.

Les datacenters consomment environ 2 % de l’électricité produite dans le monde, et au rythme où explose la donnée, nous allons vers 3%. En 2021, selon CBRE, la capacité énergétique de FLAP a été portée à 415 MW réservés, dont 370 MW absorbés. Et plus de 230 MW ont déjà été signés en pré-locations. Tout l’écosystème travaille à limiter cette progression, des technologies de rupture comme l’immersion ou l’hydrogène sont en développement. Mais le datacenter n’a pas fini d’être pointé du doigt sur sa consommation énergétique. Heureusement que via le jeu des PPA (Power Purchase Agreement), la majorité de l’électricité consommée dans le datacenter est décarbonée. Même si cette pratique de compensation reste discutable.

Densité en forte hausse

La visite des datacenters récemment construits révèle de nombreuses surprises, parmi elles des faux planchers renforcés pour supporter plus de poids, des baies qui gagnent en hauteur, et une puissance électrique au rack en hausse. Cela signifie plus de serveurs et de switchs dans les racks, ou alors des configurations hyperconvergées donc plus compactes, ce qui se traduit par plus de poids au sol, mais également une consommation électrique plus forte au niveau du rack. La densité de puissance par rack s’exprime en kilowatts (kW) à la baie. Classiquement, celle-ci variait de 1 à 5 KW/rack. En 2020, selon l’Uptime Institute, la densité moyenne était de 8,4 kW par rack. Ajoutons qu’avec l’explosion des usages associés au calcul – IA, Big Data, simulation, réalité virtuelle, HPC – la densité continue d’augmenter, avec des datacenters capables d’accueillir de 20 à 30 KW par rack. Ils sont 16% à recourir à cette puissance aujourd’hui.

Urbanisation et automatisation

Le volume des données augmente, tout comme la densité des équipements qui les accueillent et exécutent les applications. Si les acteurs du datacenter ont su améliorer sensiblement l’efficacité énergétique de leurs installations, ils se heurtent cependant à la barrière de l’IT. Pour gagner encore des points de consommation électrique, il faut aussi s’attaquer aux serveurs. Et là, les opérateurs se heurtent à l’opposition des DSI. Rares, par exemple, sont ceux qui acceptent que l’on augmente la chaleur dans les baies où sont leurs serveurs. Pourtant, les spécifications techniques des fabricants ne sont plus d’une température de 20 à 22 degrés, mais bien aujourd’hui de 27 à 28 degrés, voire plus de 30 degrés, sans risque de dégradation des performances ni des équipements.

Les opérateurs de datacenters répondent à ces oppositions en imposant une urbanisation poussée des baies et de l’occupation des salles serveurs, avec une plus grande uniformisation des équipements baies et PDU. La pratique des jumeaux numériques associés à des modules de simulation des flux thermiques teste et pilote en continu les infrastructures pour réduire les coûts induits par l’informatique. Ces démarches passent également par l’adoption des solutions de DCIM pour piloter les datacenters, et l’introduction de l’Intelligence Artificielle pour traiter l’information issue des capteurs et automatiser le pilotage et la maintenance.

Sécurité et cybersécurité

L’incendie récent d’un datacenter a jeté le discrédit sur une partie des acteurs du marché. La sécurité physique du datacenter demeure un sujet critique, qu’il s’agisse de se protéger des intrusions, des erreurs humaines en production, ou des risques d’incendie. Mais sur ce plan les opérateurs n’ont pas attendu pour se protéger et pour déployer des outils efficaces de lutte contre les départs de feux et ainsi éviter ce que l’on a vu à Strasbourg. Et ils n’ont pas freiné leurs investissements sur la sécurité.

Le sujet de la cybersécurité est aussi sensible. Elle est généralement considérée comme un sujet IT, qui ne concerne donc pas le gestionnaire du datacenter. Pourtant, les équipements industriels s’ouvrent avec l’IoT, l’exploitation des données captées, et l’automatisation, ce qui crée un espace à risque. Si on y ajoute la menace des ransomwares et les pratiques de hacking mafieux de certains États, le sujet cyber devrait prendre beaucoup d’ampleur dans les années à venir.

Régulation et environnement

En 2030, les datacenters européens seront zéro carbone, la Commission européenne le leur a demandé, ils s’y sont engagés. Le Climate Neutral Data Center Pact signé par les grands acteurs du datacenter en Europe s’est également engagé sur l’utilisation de 75% d’énergies renouvelables ou sans carbone dans les datacenters dès le 31 décembre 2025, et sur 100% d’ici le 31 décembre 2030.

Ces engagements écoresponsables sont pris alors que les États nations tendent à réglementer les pratiques et les usages. L’environnement réglementaire se fait plus pressant, les États en viennent souvent à légiférer plutôt qu’à négocier. C’est un cercle vicieux dont il semble difficile de s’extraire, c’est une tendance qui inquiète. Mais peut-on critiquer le RGPD et la protection des données personnelles, ou les lois sur la localisation des données qui protègent des pratiques américaines ?

Le Edge computing et les micro-datacenters

La dernière tendance qui s’annonce majeure des datacenters de proximité (edge ou périphérie) mérite-t-elle d’être évoquée ici ? Certes oui, car tous les acteurs s’y engagent, mais pour combien de temps encore ? L’idée est simple : soit le traitement des données est une affaire locale, par exemple sur une chaîne de production ou dans un immeuble (smart building) ou une agglomération (smart city) ; soit il doit gagner quelques précieuses microsecondes et demande à réduire la latence (pilotage d’environnements critiques, intelligence artificielle, automobile connectée) ; soit fournisseurs et utilisateurs imposent la souveraineté des données et des traitements (santé).

Les usages potentiels du edge sont multiples, mais du côté du datacenter ils semblent encore lointains ou au stade de l’expérimentation. Mais paradoxalement, les projets Edge ne sont pas des projets de datacenters. Ces derniers se construisent dans la durée, avec une phase d’étude, de design et de validation longue, puis une phase de construction soumise à des pratiques rigides relevant du bâtiment. Un projet Edge, voire de micro-datacenter, est à l’opposé, il doit être construit et déployé rapidement, automatisé et piloté à distance. L’exemple le plus flagrant est l’antenne 5G.

 

Nous faisons le constat que le Edge est plus un projet d’infrastructure informatique, avec les couches IT livrées dans une boîte qui reprend les composants à taille réduite du datacenter. Sa définition, ses équipements, sa livraison et sa mise en route, et son support relèvent du distributeur ou de l’éditeur qui va chercher une solution clé en main, que lui fournira le ‘channel’ du fabricant de serveurs, pas du fabricant de datacenters. Voilà pourquoi si le Edge est une tendance majeure du datacenter, il ne le restera pas longtemps pour devenir une tendance chez les grands fabricants d’infrastructures informatiques.

Conclusion

Le datacenter est un sujet d’actualité majeur, associé à la puissance de la donnée, mais il reste un sujet de niche, qui comme l’informatique qu’il accueille demeurera longtemps soumis au même diktat que les fournisseurs d’infrastructures : la réduction des coûts.