Accueil Des contrôles adaptés à l'emplacement

Des contrôles adaptés à l'emplacement

Les calculs opportunistes restent à implémenterdans le datacenter. Ils permettront d'associer des énergiesintermittentes – issues d'éoliennes ou de panneaux solaires – àl'alimentation du centre de données : «Tous les services ne méritent pas99,999% de taux de disponibilité. Des calculs opportunistes pourrontcontribuer à délivrer les énergies intermittentes, justement, enfonction des opportunités», prévoit Jean-Marc Menaud,enseignant-chercheur à l'Ecole des Mines de Nantes et cofondateurd'Easyvirt.

Paradoxalement, les dispositifs de contrôle etde régulation du datacenter virtuel doivent être surveillés de près.

Souvent, plusieurs systèmes cumulatifs sont misen place pour optimiser les conditions d'exploitation. En particulier,les technologies de free cooling peuvent apporter de substantielleséconomies d'énergie. Mais leur intérêt réel dépend de leur déploiementet de leur configuration. Par exemple, Neo Telecoms a ouvert undatacenter à Besançon, dans le Doubs l'an passé, dont le bilanénergétique s'avère positif : «Nous avons opté pour deux boucles d'airqui se croisent sans jamais se mélanger, via la climatisation EcoBreezede Schneider. Un second système de brumisation d'eau intervient surl'air extérieur pour le refroidir. Et lorsque l'air extérieur est tropchaud, on lance les compresseurs. Cette solution de free cooling esttrès efficace au nord de la Loire. Dans le Doubs, où les nuits sontfraîches presque toute l'année, c'est le cas 340 jours par an», relateLionel Gabison, le directeur des opérations de Neo Telecoms.

Pour éviter un gaspillage d'énergie, inutile des'obstiner à stabiliser l'hydrométrie à 50% en permanence. En effet, leséquipements actifs du datacenter fonctionnent parfaitement entre 20% et80%. Il suffit de vérifier que ces limites ne sont pas franchies etd'agir uniquement lorsqu'elles le sont.

Le bon dimensionnement de ses installationsconditionne le retour sur investissement du datacenter : «Leséquipements de climatisation tels que le free cooling consomment moinspour une charge informatique équivalente. On s'aperçoit que le niveau decharges des centres informatiques intervient aussi», complète TristanRichard, directeur de projets chez APL France. Le spécialiste del'audit, du conseil et de l'exploitation des centres de données signaleune différence importante entre la consommation réelle des équipements,constatée sur le terrain, et les puissances théoriques affichées par lesfournisseurs informatiques : «L'écart est particulièrement sensible avecles serveurs à lames, censés consommer 4 KWh à pleine charge. Enaccueillir plusieurs dizaines influence fortement la charge globale. Sion planifie une charge de 75% et qu'on constate une charge réelle de 15%à 30%, l'indice PUE dépassera alors 2 pour un objectif initial de 1,3.Le datacenter doit calibrer au mieux les infrastructures techniques parrapport à l'IT», préconise-t-il. 

Cela confirme l'importance des simulations decharges, puisqu'une optimisation du fonctionnement passe par uneestimation correcte du niveau de montée en charge ainsi que de lavitesse de montée en charge.