Trois experts nous livrent leur vision sur l’avenir des centres de données.
1. L’IA propulse l’excellence opérationnelle des datacenters
Par Manfred Felsberg, Senior Sales Global for Datacenter chez Juniper Networks

Le potentiel – dit illimité – de l’intelligence artificielle s’immisce chaque jour dans de nouveaux domaines réseau et les datacenters ne font pas exception. Dans ce secteur qui connaît d’importantes transformations, la progression rapide de l’IA offre en effet des solutions innovantes pour répondre aux besoins d’efficacité, de résilience et de durabilité. Si, bien sûr, tout ne peut pas être résolu avec l’IA, elle peut tout de même devenir la pierre angulaire d’une excellence opérationnelle durable – un changement de paradigme qui se doit d’être reconnu et compris.
L’AIOps appliquée à la gestion proactive des datacenters
L’IA transforme fondamentalement la gestion des datacenters grâce à son approche opérationnelle rationalisée et à l’amélioration de l’efficacité globale. Alors que l’industrie traverse une véritable pénurie de main-d’œuvre, cette technologie joue aujourd’hui un rôle crucial dans le maintien des normes de qualité. L’AIOps est particulièrement essentielle à cette transformation, en rationalisant les opérations réseau dans divers domaines, y compris pour les datacenters automatisés et/ou pilotés par l’IA. Contrairement aux réseaux traditionnels, plus techniques et ésotériques, l’IA offre une approche intuitive pour une gestion optimale.
Grâce à l’AIOps, les opérations de mise en réseau sont simplifiées, ce qui minimise les erreurs et accélère les tâches routinières. En corrélant des données provenant d’un large éventail de sources, elle fournit une vue d’ensemble qui peut révéler des modèles souvent négligés par l’œil humain. Cette inté-gration offre ainsi une vue complète de l’environnement réseau et accélère la résolution des problèmes.
L’AIOps excelle aussi dans le filtrage, l’analyse des données et la découverte de modèles non évidents, en veillant à ce que seules les informations les plus pertinentes parviennent aux opérateurs. Cela se traduit par une analyse des données et une prise de décision efficaces et opportunes. Les performances du réseau peuvent également être surveillées à l’aide de l’AIOps pour détecter les incidents en temps réel et assurer une maintenance prédictive. Il ne fait donc aucun doute que le passage d’une gestion réactive à proactive a un impact considérable sur les opérations des datacenters, améliorant l’efficacité globale en permettant aux administrateurs de concentrer leurs efforts sur des tâches stratégiques. De plus, cela est réalisable sans qu’il soit nécessaire de suivre une formation approfondie sur les différents langages CLI. L’AIOps nous permet, in fine, de comprendre des situations en quelques secondes comme jamais auparavant.
Un équilibre à trouver entre approche déterministe et probabiliste
Il est tout aussi important de reconnaître que l’intégration de l’IA présente à la fois des opportunités et des défis pour ces infrastructures. Les approches pilotées par cette technologie, telles que l’AIOps, s’appuient sur des algorithmes sophistiqués qui s’entraînent sur des données pour trouver une réponse – elle reste donc intrinsèquement probabiliste.
Bien que l’AIOps excelle à diverses étapes du cycle de gestion des datacenters, en prédisant et en s’adaptant aux conditions dynamiques du réseau, l’IA n’est pas magique. Cependant, il existe de nombreuses tâches où la certitude est primordiale, comme piloter un avion. Dans ce genre de cas, les solutions déterministes restent alors indispensables. C’est là que l’Intent-Based Networking (IBN) entre en jeu. Ce concept est idéal pour les systèmes fondés sur des règles et garantit des résultats fiables dans des situations où une approche probabiliste peut introduire un risque inacceptable. Ainsi, un système qui identifie la cause d’une anomalie avec une certitude de 98 % semble excellent mais cela peut être très risqué pour certains opérateurs.
La clé de la solution consiste donc à trouver le juste équilibre : l’exploitation de l’AIOps et de l’IBN le fournit avec une gestion et des capacités de dépannage adaptables et contextualisées dans les domaines opérationnels contrôlés du datacenter. Cette approche hybride garantit des opérations robustes et fiables dans un secteur numérique de plus en plus complexe.
Pallier les structures hybrides qui complexifient la mise en réseau avec l’IA
L’IA est bel et bien pertinente pour la mise en réseau du point de vue des opérations et des infrastructures. Les initiatives que tant d’organisations mettent aujourd’hui en œuvre doivent tout de même s’exécuter sur un certain type d’infrastructure informatique. Alors que les entreprises commencent à la déployer avec succès dans le reste de l’organisation, une autre question se pose : celle d’utiliser des clouds publics ou de se fier à sa propre infrastructure. Pour de nombreuses entreprises, le monde de l’IT est très hybride, de sorte que la plupart d’entre elles continueront d’opter pour une combinaison de solutions sur site et de cloud public. Équilibrer et intégrer de manière transparente les deux systèmes représente un défi majeur.
La complexité de la gestion des environnements hybrides est ainsi un obstacle de plus, les connaissances opérationnelles essentielles dépendant souvent directement du personnel et de sa fidélisation. Cela peut être atténué par l’intégration des solutions IBN qui sont intrinsèquement multi-fournisseurs et simplifient la gestion. De plus, les processus de configuration manuelle restent fastidieux et sujets aux erreurs, ce qui souligne encore la nécessité de solutions automatisées, y compris grâce à l’AIOps, pour améliorer la fiabilité et l’efficacité des opérations.
L’IA continue de progresser et son intégration dans les opérations des datacenters est appelée à transformer profondément le secteur. Sa croissance et celle de l’IBN annoncent une nouvelle ère d’efficacité et d’automatisation, s’attaquant directement aux défis de longue date de la gestion des réseaux et réduisant l’importance des certifications traditionnelles des fournisseurs.
Alors que le manque d’expertise en réseau persiste, l’IA et l’IBN combleront ces lacunes en démocratisant les outils de gestion et les capacités opérationnelles. Nous pouvons également attendre un changement notable dans les entreprises qui investissent dans la construction de leurs propres datacenters d’IA, spécifiquement pour protéger la confidentialité des données et garder le contrôle sur les informations sensibles loin du cloud public (tout en gardant à l’esprit la conformité aux questions de souveraineté). Finalement, ce rapprochement de technologies rationalisera les opérations et établira de nouvelles normes en matière de confidentialité et d’excellence opérationnelle dans l’industrie.
2. Les stratégies de stockage écoresponsable ouvrent-elles la voie aux datacenters durables ?
Par Pierre Aguerreberry, vice-président ventes EMEA de DataCore

Les datacenters sont connus pour leur consommation d’énergie élevée : ils produisent une forte chaleur, ce qui nécessite l’ajout de systèmes de refroidissement supplémentaires pour maintenir leur fonctionnement. C’est d’autant plus le cas lorsque les infrastructures sont devenues tentaculaires en raison de la croissance fulgurante des données. Cela entraîne la montée en flèche des factures d’énergie et une empreinte carbone considérable, ce qui soulève des inquiétudes sur la durabilité à long terme. Des prévisions datant de 2018 indiquaient que les datacenters allaient consommer jusqu’à 20 % de l’électricité mondiale en 2025 et contribuer à hauteur de 5,5 % aux émissions de carbone globales, notamment en raison du développement fulgurant de l’IA et de l’IoT. Il est donc urgent de trouver des solutions durables pour les données.
Le mouvement en faveur du datacenter écoresponsable révolutionne notre manière de stocker et de gérer les données, en mettant l’accent sur la durabilité sans compromettre la sécurité ou les perfor-mances. L’adoption de stratégies innovantes par les organisations encourage l’adoption du stockage écoresponsable, composant essentiel qui vise non seulement une utilisation efficace de l’énergie mais qui réinvente aussi le stockage des données afin de réduire au maximum l’impact environnemental et d’optimiser l’efficacité opérationnelle. Ce changement ouvre la voie à un avenir où les infrastructures numériques et la responsabilité environnementale pourront coexister en harmonie.
Qu’est-ce que le stockage écoresponsable ?
Le stockage écoresponsable fait référence à des méthodes et des technologies de stockage des données qui respectent l’environnement. Il comprend une large gamme de pratiques, du déploiement de matériel à faible consommation énergétique à la mise en œuvre de solutions permettant de réduire l’empreinte des données. L’objectif du stockage écoresponsable est de réduire au maximum la consommation d’énergie et les émissions de carbone associées afin de soutenir les objectifs de durabilité des datacenters actuels.
Le stockage écoresponsable vise à réduire l’empreinte environnementale mais aussi à diminuer les coûts opérationnels. Les technologies éco-énergétiques permettent de réduire considérablement la consommation d’énergie, tandis que des opérations plus intelligentes peuvent garantir une gestion optimale des données et éviter ainsi des pratiques dispendieuses. Cette synergie entre avantages environnementaux et économies de coûts fait du stockage écoresponsable un facteur clé pour l’avenir de la gestion des données.
Les meilleures pratiques présentent notamment comment rendre le stockage écoresponsable pour maximiser l’efficacité et la durabilité des datacenters.
1. Optimiser l’utilisation des ressources existantes
Il est avant tout essentiel d’optimiser l’utilisation des ressources de stockage existantes, afin de s’assurer que chaque disque disponible puisse être utilisé pour stocker des données. Au cours des 20 dernières années, la virtualisation du stockage a joué un rôle central pour réaliser cet objectif. Cette technique dissocie la liaison directe 1: 1 entre le stockage physique et les applications ou les utilisateurs, en créant un pool virtuel de ressources de stockage qui peut être géré plus efficacement.
Elle facilite la gestion centralisée et permet une attribution dynamique de l’espace de stockage sur plusieurs appareils, quelle que soit leur configuration physique. De plus, elle favorise l’indépendance vis-à-vis des fournisseurs, simplifie l’intégration de nouvelles technologies dans l’infrastructure existante et permet d’effectuer des migrations de données sans interruption. Ces avantages améliorent non seulement l’efficacité et l’évolutivité des systèmes de stockage mais ils garantissent également que les datacenters peuvent s’adapter à la croissance et à la modernisation, sans augmenter la consommation d’énergie ou l’empreinte carbone de manière exponentielle.
2. Réduire au maximum l’empreinte des données
La déduplication et la compression des données sont des techniques essentielles qui réduisent la capacité de stockage nécessaire et améliorent ainsi l’efficacité des stratégies de stockage écoresponsable. La déduplication garantit que les données redondantes ne seront pas stockées plusieurs fois dans leur taille d’origine. Une fois qu’un premier ensemble de données redondant est stocké, chaque ensemble de données identique fera ultérieurement référence à l’original, ce qui évite toute duplication inutile. L’espace de stockage nécessaire est ainsi considérablement réduit, ce qui diminue à la fois l’empreinte physique et la consommation d’énergie des datacenters. La compression réduit encore la taille des données pour permettre de stocker plus de données dans moins d’espace et de réduire la bande passante nécessaire aux transferts de données. Il est possible de renforcer ces avantages en intégrant intelligemment l’optimisation de la capacité à la hiérarchisation du stockage et en tirant parti de l’IA et du machine learning pour réduire l’empreinte des données sans affecter les performances.
3. Équilibrage de charge et placement de données intelligents
L’utilisation efficace des ressources de stockage dans les datacenters écoresponsables est cruciale pour la durabilité. Elle implique deux stratégies clés : équilibrage de charge et placement des données. L’équilibrage de charge garantit une répartition uniforme des charges de travail sur les différents périphériques de stockage afin d’éviter de surcharger un seul système. Cela améliore l’efficacité mais diminue aussi la consommation d’énergie en réduisant au maximum les besoins en refroidissement. Le placement des données optimise leur emplacement de stockage : les données hautes performances souvent consultées sont rangées dans un emplacement offrant un accès plus rapide et une latence réduite, tandis que les données plus froides sont stockées sur des supports plus lents et plus économes en énergie. Cela contribue à réduire encore davantage la consommation d’énergie et les coûts. Les technologies d’intelligence artificielle et de machine learning améliorent ces processus en optimisant le mouvement des données de manière dynamique et intelligente. Ces approches intégrées aident les datacenters écoresponsables à obtenir de meilleures performances tout en respectant l’environnement.
4. Gestion intelligente de l’énergie dans les systèmes de stockage
La gestion adaptative de l’énergie dans les systèmes de stockage implique l’utilisation de technologies avancées pour adapter la consommation d’énergie aux demandes fluctuantes des charges de travail. Ces systèmes se mettent hors tension ou passent en mode économie d’énergie de manière intelligente lors des périodes de faible demande et se réactivent rapidement si nécessaire. Cette approche permet non seulement de réduire la consommation d’énergie inutile mais également de prolonger la durée de vie du matériel en réduisant son usure. La mise en place d’alimentations électriques économes en énergie et de technologies de refroidissement adaptées aux conditions thermiques actuelles permet d’optimiser encore davantage la consommation d’énergie. Cela contribue à améliorer à la fois la durabilité et la rentabilité des datacenters.
Software-Defined Storage et informatique écoresponsable
Le Software-Defined Storage (SDS) sert la cause de l’informatique écoresponsable en exploitant la puissance de la virtualisation du stockage et en fournissant des services de données complets. Les équipes informatiques peuvent ainsi s’adapter rapidement à l’évolution des besoins en données et des conditions environnementales, tout en favorisant des opérations économes en énergie.
Le SDS est indépendant du matériel et prend en charge n’importe quel disque, peu importe sa marque ou son modèle. La capacité de stockage peut ainsi être mise à l’échelle de façon granulaire en fonction des besoins. Cette adaptabilité permet une évolutivité presque illimitée et une intégration fluide des technologies futures. De plus, le SDS favorise le recyclage des ressources de stockage : les systèmes inutilisés peuvent être recyclés ou réutilisés dans l’infrastructure SDS. Cela contribue à améliorer les configurations de stockage avec des services de données de haute qualité et prolonge la durée de vie du matériel. Cette pratique permet de réduire le gaspillage mais elle met aussi les clients en meilleure position pour négocier leurs futures acquisitions de matériel auprès des fournisseurs, car ils sont en mesure de démontrer la durabilité et la viabilité de leur infrastructure de stockage.
De plus, le SDS facilite la mise en œuvre de pratiques écologiques telles que la déduplication, la compression et la hiérarchisation assistée par l’IA. En optimisant l’affectation des ressources et en automatisant les processus qui nécessitent en général une intervention manuelle, le SDS améliore l’efficacité opérationnelle, diminue la consommation d’énergie et réduit l’empreinte environnementale du stockage.
3. Vers des datacenters moins énergivores
Par Damien Desanti, fondateur et président de Phocea DC

Selon les données d’EY-Parthe-non, la France comptait environ 250 datacenters commerciaux en 2022. Majoritairement basés en Île-de-France et dans le sud-est du pays, ces centres de données ont des tailles, capacités de stockage et consommations électriques très diverses. La capacité disponible installée de ces centres de données était alors de 566 MW, en hausse annuelle de 16 % depuis 2016. Elle devrait continuer d’augmenter pour atteindre 1,8 GW en 2033, soit une progression de 11 % par an sur les prochaines années.
Une partie de la consommation énergétique de ces datacenters peut être réduite mais une autre demeure purement et simplement incompressible. La raison de ce constat est simple : la création de valeur dans le secteur du numérique passe inexorablement par de la consommation de kilowatts, cette dernière provenant des processeurs, cartes graphiques, disques durs et autres composants électroniques. Même si les rendements de ces composants s’améliorent année après année, une part irréductible subsiste, quelle que soit la configuration choisie.
Les langages de programmation, un levier trop peu connu d’optimisation énergétique
Cela étant, de nombreux leviers existent pour diminuer l’énergie consommée par les datacenters. Les langages de programmation en sont un. Dans une étude publiée en 2021, des chercheurs ont étudié 27 langages différents, les analysant selon trois critères : la consommation d’énergie, le temps d’exécution et la consommation maximale de la mémoire.
Ce sont les langages compilés (C, C++, Pascal, Fortran…) qui décrochent les meilleures places du classement, devant les langages interprétés (JavaScript, PHP…) et les langages de machine virtuelle (Java, C#…). Si l’on ne regarde que la consommation énergétique, les rapports peuvent aller de 1 à 75, voire 80 (1 pour le langage C, 75,88 pour Python et 79,58 pour Perl). Si les développeurs font l’effort de coder en C++ plutôt qu’en Python, les effets seront immédiats. Pour les aider, l’IA générative permettra peut-être, dans un avenir proche, de convertir facilement des programmes d’un langage à un autre.
Le PUE, l’autre levier de réduction de la consommation énergétique
Autre levier d’optimisation, plus connu : le PUE (Power Usage Effectiveness). Cet indicateur se calcule en divisant le total de l’énergie consommée par le data-center par le total de l’énergie utilisée par les équipements informatiques (serveurs). Il correspond à la capacité des datacenters à maîtriser leur efficience énergétique. Ces dernières années, de nombreuses innovations ont permis de réduire le PUE des datacenters, et notamment d’améliorer les taux de rendement de la chaîne électrique des onduleurs, désormais proches de 100 %.
La technique de l’immersive cooling (refroidissement par immersion) facilite, elle aussi, la diminution du PUE des datacenters. En immergeant intégralement les composants d’un serveur dans un liquide non conducteur, elle permet d’obtenir des densités de serveur 100 fois plus élevées que celles qui étaient disponibles il y a encore quelques an-nées, atteignant des densités de l’ordre de 300 kVA par baie informatique, ce qui correspond à la charge électrique maximale qu’une telle l’installation peut supporter.
L’IA pour piloter les datacenters et leur consommation
L’intelligence artificielle va également apporter son lot de bénéfices aux datacenters. Il y a tellement de paramètres à gérer pour chaque équipement (groupe électrogène, groupe froid, onduleur, etc.) que seule une IA est en mesure d’intégrer l’ensemble de ces informations pour proposer des optimisations et évolutions pertinentes.
En ingérant en amont des centaines de courbes de rendement liées aux matériels installés et en se connectant à des milliers de capteurs opérant en temps réel, les technologies d’IA rendent le bâtiment qui héberge le datacenter véritablement intelligent. La réactivité est un autre apport de l’IA. Si un client installe 20 ou 30 baies dans une salle en une journée, l’IA va immédiatement détecter cette opération, analyser le trafic et la consommation tout en pilotant les équipements afin que le rendement soit constamment au maximum, ce qui est vertueux d’un point de vue énergétique.
Juliette Paoli