En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour recueillir vos informations de connexion, collecter des statistiques en vue d'optimiser les fonctionnalités du site et adapter son contenu à vos centres d'intérêt.
En savoir plus et paramétrer les cookies Accepter
Comparateur de logiciels de gestion
Avec notre comparateur en ligne, trouvez en quelques clics la solution à votre besoin
agenda
Agenda
Solutions IT
  • 15/11/2017
    Cloud Expo Europe Paris 2017

    Cloud Expo Europe, Paris 2017, c'est le grand rassemblement d'experts dédiés au Cloud. Parmi les…

    en détail En détail...
  • 06/12/2017
    Paris Open Source Summit

    Paris Open Source Summit, premier événement européen libre et open source, est le fruit de…

    en détail En détail...
Conscio_Bannière

Le Cloud transforme le paysage des datacenters

Jalios_Digital Summit 2017_pave

La demande des entreprises porte sur une infrastructure mutualisée en Cloud public. Cette externalisation vide une partie des salles internes, vouées aux traitements de données critiques.

 

Serveurs pré-configurés, disques Flash, mémoires persistantes NVMe, capteurs connectés, micro-services, automatisation… Ces technologies récentes redistribuent les traitements numériques, bouleversent les métiers et les frontières entre opérateurs. On distingue désormais quatre tailles de datacenters, au-delà des dispositifs connectés : l’edge computing ou micro-datacenter avec sa baie tout-en-un, le datacenter régional, le macro-datacenter pour l’hébergement mutualisé et l’hyperscale en back-office d’un géant du Web.

Damien Giroud


« Le paysage actuel est hybride. Il correspond à une nouvelle répartition massive des services et des données d’entreprise. Il impose aux fournisseurs un rythme accéléré de création de nouveaux services sur chaque famille »,
constate Damien Giroud, le directeur des solutions pour centres de données de Schneider Electric. Parmi ses chantiers récents, l’équipementier français et son partenaire Cap Ingelec interviennent sur deux futurs datacenters pour le compte d’Interxion, dans l‘enceinte même du grand port maritime de Marseille, une reconversion d’envergure pour 14 000 mètres carrés de salles blanches, estimée à 180 millions d’euros.

Le Cloud chahute les métiers

La nature des informations traitées conduit à une spécialisation des centres de données : « Le datacenter forme un carrefour équipé de stations-services qui attirent beaucoup de trafic, confirme Stéphane Duproz, le directeur Europe du groupe anglais Global Switch. C’est une fondation et c’est aussi l’endroit où toute la connectivité se retrouve. La convergence des données va s’organiser maintenant autour de datacenters qui ont des opérateurs Cloud pour clients, ce qui est notre cas. »

Olivier Micheli

Olivier Micheli, le CEO du groupe Data 4, observe plusieurs initiatives visant à mieux servir des clients de toutes tailles, en régions : « Le phénomène de régionalisation des datacenters va se développer de plus en plus, pour répondre aux défis de la ville intelligente et de ses services. Il s’agit de traiter localement les données locales », décrit-il. Son entreprise exploite déjà 14 centres en France, en Italie et au Luxembourg. « Le métier [d’opérateur de centre de données] évolue. Pour nous différencier, nous devons devenir le trait d’union entre l’espace d’hébergement et la plateforme Cloud utilisée par les entreprises. » Un nouveau financement, à hauteur de 250 millions d’Euros lui permet de voir cet avenir sereinement. Outre l’expansion du campus de Marcoussis, il prévoit d’ériger un nouveau site tous les sept mois pour faire partie des cinq premiers acteurs européens d’ici à la fin 2020, et profiter de la consolidation actuelle du marché Européen : « Grâce à nos actifs évolutifs, nous avons réussi à developper une plateforme de services innovante. Nous envisageons une expansion en Espagne, en Allemagne, peut-être aux Pays-Bas ou au Royaume-Uni, en fonction des opportunités. »

Le Cloud change tout et fournit, paradoxalement, un nouveau souffle aux datacenters. Le modèle économique du SaaS, la facturation à l’usage, s’étend jusqu’aux infrastructures managées, note Jeff Klaus, le directeur général en charge des solutions pour datacenters d’Intel. Selon lui, nous sommes très proches du Datacenter as a Service : « Certains de nos partenaires ont déjà fait évoluer leur modèle tarifaire avec des services managés d’infrastructure, calqués sur le modèle économique du SaaS. Au final, cela rend l’investissement plus digeste pour le client final ».

L’entreprise Cloud se débarrasse du legacy

On note une accélération des demandes d’infrastructures Cloud publiques, pas seulement dans les startups et les PME. Air Liquide, LafargeHolcim, Veolia, Radio France (lire l’encadré) ou la Société Générale se tournent ainsi vers les ressources du géant américain Amazon Web Services (AWS) qui voit l’Hexagone comme une zone stratégique à présent.

« C’est un mouvement de fond. Nous servons 80% du CAC 40. Les grandes entreprises veulent gagner en agilité et en qualité de services. Elles migrent d’anciennes applications sur mainframe vers notre plateforme Cloud, gagnent un passage à l’échelle quasi instantané, une tolérance aux pannes et aux pics de charges. Les gains financiers apparaissent ensuite, comme des bénéfices supplémentaires », retrace Julien Lepine, responsable de l’équipe des architectes solutions d’AWS en Europe.

« Le Cloud AWS soutient des applications IoT et big data au travers de grappes de serveurs distants et métropolitains, situés en région parisienne. »

Julien Lepine, responsable de l’équipe des architectes solutions d’AWS en Europe

En France, le groupe Veolia est le premier a évoquer un fonctionnement sans datacenter interne. Plus de 50 machines distinctes lui sont proposées sur l’infrastructure AWS, jusqu’à 128 cœurs physiques, 4 To de RAM et des interfaces réseaux à 10 et même 20 Gbps sur les dernières instances. Mais quel est le principal apport des récentes mémoires NVMe en environnement Cloud hybride ? « On peut optimiser le système d’information aux endroits où cela fait du sens pour le client », explique Julien Lepine. Avec trois datacenters distants situés autour de Paris, et opérationnels d’ici la fin de l’année, AWS facilitera les réplications synchrones de données, le délai de latence d’un cluster métropolitain ne dépassant pas quelques micro-secondes. « Les fibres optiques dédiées reliant nos datacenters procureront plusieurs Terabits par seconde de débit. Elles formeront des boucles qui ont été installées et sont opérées par AWS. »

Microsoft revendique déjà plus de 20 millions d’entreprises clientes de son Cloud Azure, dans le monde. L’éditeur de Redmond va s’appuyer désormais sur deux datacenters en France, à Paris et à Marseille, pour servir ses partenaires et clients locaux en Infrastructure as a Service, bureautique Office365 ou services Dynamics 365. Il contourne ainsi l’obstacle du Brexit, engage la transformation numérique des collectivités locales et des grandes entreprises, et génère des revenus récurrents cruciaux pour compenser la baisse des ventes de logiciels à l’unité. Parmi les premiers partenaires français lui emboîtant le pas, citons l’intégrateur de solutions open source Alterway, les éditeurs ActiveEon (lire plus bas), Cegid et Xelya (ex-Colibriwithus).

Une architecture modulaire, une supervision ouverte et de bonnes pratiques issues des géants de l’Internet accompagnent l’évolution actuelle des datacenters.

Une gouvernance plus transparente

« Le développement le plus intéressant concerne les applications qui aident à exploiter les centres de données. Quand l’entreprise a bien structuré ses services, ces applications apportent un soutien fantastique à présent », signale Jérôme Le Bourgeois, fondateur et président de JLB Data, un cabinet d’expertise en infrastructures qui intervient sur des salles de 15 à 400 mètres carrés.

Jérôme Le Bourgeois

La surveillance continue et la transparence d’infrastructures opérées par un tiers deviennent incontournables : « Nos clients veulent accéder en temps réel aux informations du datacenter, pour mieux piloter leurs actifs hébergés. Nous devons évoluer vers une gouvernance plus transparente et démontrer, par exemple, l’amélioration des consommations d’énergie », témoigne Olivier Micheli avant de signaler qu’un datacenter Data 4 compte jusqu’à 4 000 points de mesure. « On réfléchit à présent à monter dans la couche de valeur IT, sur les infrastructures de stockage et de calcul, afin de permettre aux clients de rajouter des indices de performances au niveau applicatif », poursuit-il.

La qualité de services et la protection des données obsèdent sans cesse le gestionnaire de datacenter. « La cyber-criminalité, la sécurité physique et la gestion d’infrastructures complexes exigent des compétences multiples de plus en plus pointues dans une organisation structurée et certifiée. Ces synergies permettent d’offrir à nos clients une offre totalement sécurisée ‘by design’ », observe Bruno Fery, Head of Datacenters Services chez EBRC.

De nouvelles compétences métiers s’imposent à présent, signale Jean-Baptiste Plagne, le vice-président de la division IT de Schneider Electric : « Je vois émerger le responsable de la conformité, l’évangéliste du Cloud, l’expert DCIM, des spécialistes de la maintenance des serveurs et des onduleurs, de l’optimisation énergétique et du refroidissement par free cooling. Ils contribuent ensemble à garantir une disponibilité continue des services en 24/7 ».

Des interfaces réseaux à 400 Gbps en 2019

Des interfaces réseaux à plus haut débit sont recherchées pour absorber les vastes volumes de données confiés aux datacenters. Elles doivent aussi être en mesure de diffuser des flux audiovisuels, sans délai de latence, vers les salariés, partenaires et clients-internautes.

La tendance Ethernet multi-Gigabit s’observe surtout à l’intérieur du centre de données. L’interface 25 Gigabit Ethernet occupe le terrain, son coût au port étant très compétitif face aux interfaces plus performantes comme le 40 et le 100 Gigabit Ethernet. En outre, l’assemblage de quatre canaux à 25 Gbps permet de déplacer de gros volumes de données à 100 Gbps, en lien montant.

« Plus de la moitié des ports commutés du datacenter vont adopter un débit de 25 Gbps ou de 100 Gbps d’ici à la fin 2020, prévoit le cabinet Dell’Oro Group. En dépit de la pénurie actuelle d’unités optiques à 100-Gbps (transceivers), les livraisons d’interfaces à 25 et 100 Gbps atteignent déjà les centaines de milliers de ports par trimestre. » L’analyste californien estime que la production de ports commutés à 400 Gbps devrait débuter dès l’année 2019.

Automatisation et workflow accélèrent la production

Parallèlement, la densité des commutateurs réseaux augmente grâce aux gravures plus fines des composants semi-conducteurs (16 nm). Cela se traduit par une moindre consommation électrique et par une efficacité accrue des infrastructures du datacenter.

Un nombre croissant de traitements, hier cantonnés aux serveurs internes, sont exécutés en parallèle sur plusieurs sites désormais. Sous la pression des métiers, les équipes IT adoptent la démarche DevOps, prônent l’automatisation autour de micro-services, de workflows, de containers et d’orchestrateurs. Cela permet d’accélérer le time-to-market, d’optimiser les coûts et les performances de l’informatique de production.

Une exploitation plus efficace

Le datacenter contribue bien à accélérer les processus métiers de façon économique, en profitant de calculs intensifs, distribué dans le Cloud, sur diverses unités de calcul (CPU, GPU ou FPGA) : « Notre positionnement est multi-Cloud, multi-datacenters. Notre offre PoC in the Box accède au Cloud Azure de Microsoft. Nous nous plaçons devant une infrastructure hybride et faisons transiter les workloads métiers intégralement. Ce sont souvent des services proches de la R&D, en lien avec l’évolution des produits de nos clients », expose François Tournesac, le Chief Sales Officer de l’éditeur français ActiveEon qui compte pour clients l’assureur Legal & General, le groupe L’Oréal, le CEA et le CNES. Il confirme le besoin croissant d’hyper-automatisation des charges applicatives et des processus métiers. Mais, pour un retour sur investissement rapide, il ne suffit pas de remplacer des scripts et traitements par lots par une exécution de tâches en parallèle : « Une surveillance continue permet de détecter et de réparer les erreurs, de déclencher certaines tâches en fonction des comportements observés. On entre dans le deep learning et le machine learning », poursuit-il. Parallèlement, les tendances SDN (software-defined networks), SDS (software-defined storage) et SDDC (software-defined datacenter) tentent de répondre aux défis du Big Data en rendant l’infrastructure du datacenter dynamique, pilotée par logiciels.

Un défi important des propriétaires de datacenters consiste à remettre en cause l’organisation interne des services pour une exploitation plus efficace. « Les normes européennes sont arrivées et lorsqu’on les suit, le système devient plus facile à exploiter, efficace sur le plan énergétique et capable de répondre aux besoins de l’informatique moderne », constate Jérôme Le Bourgeois.

Diminuer la consommation d’énergie

Cette mise en conformité touche essentiellement l’efficacité énergétique, le refroidissement des salles IT, la gestion thermique, ainsi que certains aspects télécoms : « Il s’agit de desservir correctement les clients, avec l’opérateur de leur choix. De 30 à 40 opérateurs distincts irriguent un datacenter de colocation tandis qu’un centre de données d’entreprise travaille généralement avec un à trois opérateurs seulement », compare-t-il.

Claude Turbet, Engie

Les sources d’énergie sont également multiples, traditionnelles ou renouvelables, mais de nouveaux efforts visent à réduire la consommation du centre de données.

« Nous sommes présents sur les datacenters, où nous réalisons 400 millions d’euros de chiffre d’affaires en services, avec 100 000 salariés répartis dans le monde, précise Claude Turbet, directeur des solutions pour entreprises d’Engie. L’activité de vente d’énergie (gaz, électricité) aux clients B2B reste la plus connue du groupe français (ex-Suez-GDF). Mais, récemment, l’acquisition de Red Engineering basé à Londres, est venue renforcer le savoir-faire en centres de données ainsi que la présence du groupe à Dubai et à Singapour. « Nous avons des contacts très sérieux avec les géants de l’Internet et nous disposons de quoi en accueillir plusieurs en Europe, en particulier aux Pays-Bas où nous disposons d’un terrain d’un kilomètre carré, à proximité d’installations de production d’électricité et d’experts compétents et disponibles. ».

A l’avenir, le groupe Engie entend diversifier ses sources d’énergie pour alimenter les datacenters, tout en diminuant leur consommation : « Nous sommes très actifs sur l’électricité verte, en Europe et aux USA, avec des projets de parcs solaires et éoliens. C’est important pour nos clients et pour la continuité de services. C’est pourquoi nous développons le stockage d’énergie afin de contrebalancer d’éventuelles défaillances du réseau principal. » Le groupe Alphabet – qui pilote Google – élabore, lui aussi, un système de stockage d’énergie plus efficace et moins coûteux que les batteries lithium-ion, à base de sel et d’antigel.

L’Afrique, un continent à conquérir

Quels sont les territoires encore vierges en 2017 ? « Chez Engie, nous voulons continuer à conquérir des clients, du design aux opérations et jusqu’à la fourniture d’énergie sur presque toutes les géographies, y compris en Afrique où l’on observe l’émergence de datacenters », concède Claude Turbet.

A l’horizon 2020, le continent africain comptera 1,3 milliard d’habitants majoritairement jeunes et prêts à sauter des étapes technologiques. Pour servir les téléphones mobiles en contenus et services multimédia, l’essor du numérique passe par des centres de données de proximité, à bâtir en tenant compte du climat local : « Un bon ratio PUE oscille autour de 1.7 en Afrique, contre 1.3 en Europe. Les zones côtières posent un problème d’humidité surtout. On rencontre moins de difficultés en s’éloignant de la lagune à Abidjan ou du bord de mer à Conakri », évoque Jérôme Le Bourgeois. Récemment, il a constaté que le simple respect de règles et de normes associé à une exploitation efficace pourrait améliorer l’accueil d’opérateurs Internet. « Le câble à fibres optiques partant de France longe toute la côte de l’Afrique de l’ouest jusqu’à l’Afrique du sud pour entrer dans chaque pays. On est en dessous de 5% d’exploitation de ce câble à Conakri, il reste donc un potentiel fantastique. »

 

 


Du méga-centre au pico-datacenter

Les géants du Web – GAFAM en tête – concentrent les demandes en matière de Cloud public. Ils investissent dans un ou plusieurs sites en France, au travers d’hébergeurs le plus souvent. Les dépenses mondiales en services Cloud public bondiront à 128 milliards de dollars en 2017 (+25,4% en un an, selon IDC). Elles devraient dépasser les 266 milliards de dollars à l’horizon 2021, en suivant un rythme de 21% de croissance par an.

Le marché du datacenter de colocation suit une croissance annuelle de 11% pour sa part. Il devrait atteindre les 13,5 milliards d’Euros en Europe de l’ouest à la fin de 2020, d’après Broadgroup consulting.

Le paysage mondial des datacenters se compose désormais d’hyperscaler ou mega-centres de données centralisés, servant de back-office aux géants du Web le plus souvent et d’une superficie de plus de 50 000 m2. Les macro-datacenters sont multi-locataires (Data4, Global Switch, Interxion, Telehouse, etc.) ; ils hébergent des systèmes d’ETI, de multinationales, d’éditeurs ou d’opérateurs Cloud sur un campus compris entre 2 000 et 10 000 m2. Le micro-datacenter est plus petit (200 à 1000 m2) et consacré aux entreprises régionales. Enfin, la maison intelligente devient un pico-datacenter pour irriguer les objets connectés de la domotique, les écrans de chaque membre de la famille, offrir une connectique à haut débit et un stockage centralisé.

Le datacenter marseillais MRS1 d’Interxion

 

 

Auteur : Olivier Bouzereau

Dossier publié dans Solutions Numériques N°17

Le Cloud transforme le paysage des datacenters
Notez cet article

Réussir son projet collaboratif-14 novembre

Jalios Digital Summit, une journée qui vous donnera toutes les clés pour réussir votre projet collaboratif, le 14 novembre 2017 au Centre de Conférences Cœur Défense

Inscription

Sondage

Windows 10 et vous

Voir les résultats

Loading ... Loading ...
Nos derniers dossiers
Témoignages
Juridique
  • Juridique - Focus sur le Délégué à la Protection de Données : Qui ? Pourquoi faire ? Quelles responsabilités ?

    Laurent Badiane, avocat associé, et Charlotte de Dreuzy, avocate du département IP/IT du cabinet KGA Avocats,…

    > En savoir plus...
Paroles d'experts
Paroles
d'experts
  • Quatre conseils avisés pour un été en toute sécurité

    Christophe Auberger, directeur technique France, Fortinet, propose quatre bonnes pratiques de cybersécurité à adopter pour…

    > En savoir plus...
Etudes/Enquêtes
  • Pour 82% des décideurs RH, le digital améliore l'engagement des collaborateurs

    82% des décideurs RH estiment que le digital permet d'améliorer l'engagement des collaborateurs, selon Markess…

    > En savoir plus...
newsletter
Inscription Newsletter

Restez informé. L’abonnement à la newsletter est gratuit.

> Abonnement

Guide de la cybersécurité 2017-2018

elo_processus pointe_skyscraper
Agenda
livres blancs
Les Livres
Blancs
  • Les bonnes pratiques pour implémenter une solution de personnalisation

    > Voir le livre
  • Guide du Service Management pour le DSI à l’ère mobile

    > Voir le livre
elo_processus pointe_skyscraper