Accueil GEREZ LES DONNEES DANS LE MULTI-CLOUD

GEREZ LES DONNEES DANS LE MULTI-CLOUD

Comment gérer des données dans un environnement complexe, pour les stocker, les pérenniser, les analyser, les contrôler, les sécuriser ? Ce dossier fait le point.

 

Les stratégies de stockage et de sauvegarde

Plusieurs facteurs amènent à repenser la gestion des données numériques, au-delà du recours croissant aux infrastructures IaaS et aux applications SaaS.

 

A nouveaux usages, nouveaux risques. L’approche Cloud hybride offrirait-elle le meilleur compromis pour maîtriser les données de bout en bout, garantir leur confidentialité, leur intégrité et leur disponibilité ? C’est ce que pense Thierry Casier, responsable de l’audit et de la sécurité des systèmes d’informations chez Harmonie Technologie : « La résilience du système d’information s’accroît avec le Cloud hybride. Et le moindre souci technique devient transparent pour l’utilisateur. D’une part, l’infrastructure physique de l’entreprise préserve les données sensibles et, d’autre part, on déplace massivement les autres informations vers des Cloud publics, d’OVH, Amazon, ou Microsoft, disposant d’une multitude de datacenters. »

Planifier les migrations multi-Cloud

Un second datacenter en propre pourrait faire l’affaire, mais la redondance à tous les niveaux coûte trop cher. Externaliser des services permet de bénéficier d’offres plus avancées, avec des grappes de serveurs Web, des clusters d’applications, de bases de données, et de pare-feux de dernière génération. Ces équipements, mutualisés chez le prestataire d’infrastructure Cloud, deviennent accessibles aux PME ; ils ne sont plus réservés à une élite de grands comptes disposant d’équipes formées à leur surveillance et à leur administration. La bascule complète vers le Cloud public demeure impensable pour de nombreux professionnels. « Dans la banque, déplacer sur Azure des données confidentielles de métiers stratégiques comme la lutte anti-fraude est inimaginable. Progressivement des applications sont externalisées, mais il reste toujours des services et données à maîtriser de bout en bout », distingue-t-il.

« En suivant une stratégie multi-Cloud, les entreprises mettent fin à leurs contrats d’infogérance pour basculer vers des centres de données en colocation. »

Eric Blum, BMC

Le modèle Cloud computing public, inconcevable pour la plupart des DSI il y a dix ans, devient l’ultime jalon des plans de migration actuels. Davantage d’organisations publiques et privées retiennent, de façon systématique, une architecture Cloud en premier choix, fréquemment via deux prestataires distincts. « En suivant une stratégie multi-Cloud, les entreprises mettent fin à leurs contrats d’infogérance pour basculer vers des centres de données en colocation », confirme Eric Blum, le directeur technique de BMC sur la zone EMEA. Selon lui, depuis un an, ce changement les pousse à ré-écrire des applications internes pour le Cloud, à les déployer sous la forme de micro-services et à déclasser le mainframe lorsqu’il est encore présent dans le système d’information. Qu’en est-il des données ? « Le stockage informatique prend toujours différentes formes, des fichiers plats aux gestionnaires de données relationnels, en passant par les bases NoSQL. Il ne s’agit pas de tout consolider en un seul et même point, mais plutôt d’être capable de provisionner ces divers contenants au bon endroit dorénavant », remarque-t-il.

Contrôler l’emplacement physique des données

En acquérant une connaissance plus fine des données et des services métiers, le responsable d’exploitation peut identifier les informations personnelles, géo-localisées, les enregistrements trahissant des opinions ou des sentiments. Ces données à caractère personnel pourront être maintenues sur un site proche de l’utilisateur. Avec l’entrée en vigueur du RGPD en mai prochain, un consentement préalable de l’intéressé devra précéder tout nouveau traitement d’analyse et, à défaut de cet accord, il conviendra de rendre anonyme l’enregistrement ou de l’effacer.

Le placement automatisé des données d’entreprise, à partir de pools de stockage répartis sur plusieurs domaines d’infrastructures, va devenir plus fréquent. Au-delà des outils de cartographie, d’inventaire d’actifs et de recensement des prestataires Cloud, un moteur de règles aide à garantir un déploiement conforme.

Cette segmentation revient à créer des classes de données auxquelles correspondent des ressources précises de stockage, de sauvegarde et d’archivage. Mais pour imposer à l’hébergeur un backup cantonné à l’Hexagone, encore faut-il le préciser via une clause contractuelle et vérifier préalablement les ressources consommées, quitte à basculer vers un autre prestataire Cloud ponctuellement. D’où ces fonctions de surveillance des performances et d’optimisation des coûts qui complètent maintenant la gouvernance des données dans le Cloud. « La bascule de workloads complètes est facilitée. Côté ordonnancement, on aide à basculer d’un environnement à l’autre, du site de l’entreprise vers un ou plusieurs Clouds et entre les Clouds également », soutient Eric Blum.

Glisser automatiquement les données vers le Cloud

La déduplication réduit l’empreinte des sauvegardes ; elle est combinée parfois à une réplication à base de blocs de taille variable. L’appliance DXI de Quantum permet ainsi d’atteindre un ratio de réduction allant jusqu’à 1:20, en frontal d’une cible NAS ou VTL. « La sauvegarde par lots fonctionne quel que soit le logiciel retenu. Une copie reste sur le site du client et une autre part vers un site distant ou vers le Cloud, retenu à des fins de plan de reprise d’activités », observe Gabriel Chaher, vice-président en charge du développement de Quantum. Lorsque l’entreprise retient un prestataire Cloud, une instance virtuelle doit alors être déployée chez AWS, par exemple. Mais le fournisseur propose une autre approche de tiering fondée sur son système de fichiers StorNext ; elle consiste à déplacer tout ce qui n’est pas une base de données automatiquement, en fonction de règles prédéfinies portant sur la taille des fichiers, leur utilisation, leur format ou d’autres attributs. « Les disques Flash, les disques rotatifs SATA et le stockage à objet peuvent former trois classes de stockage dans un Cloud privé. Après six mois, les fichiers les moins souvent relus vont libérer de l’espace sur site en étant déplacés sur un Cloud public. L’utilisateur voit toujours ces fichiers dans son arborescence, quel que soit l’emplacement physique de la donnée. Seul le temps d’accès diffère », précise-t-il.

 

« Une copie reste sur le site du client et une autre part vers un site distant ou vers le Cloud, retenu à des fins de plan de reprise d’activités. »

Gabriel Chaher, Quantum

Cette solution a démarré avec le Cloud AWS et devrait prochainement rejoindre les nuages Microsoft Azure et Google Platform, simplifiant ainsi la copie sur plusieurs Cloud simultanément ainsi que la migration d’environnements. Les premiers cas d’usages couvrent les applications de l’énergie ainsi que le workflow de montage vidéo en 4K, où une combinaison de disques flash et de NAS SATA facilite l’édition de fichiers indexés et le stockage de volumineux fichiers bruts.

Une troisième technologie innovante

Avec le projet open source Rook (rook.io), Quantum attire des contributions externes et compte accélérer l’acceptation d’une troisième technologie innovante de stockage distribué. « Dans le Cloud computing, la proximité des calculs et du stockage reste critique. Or si les traitements deviennent plus facilement mobiles au travers de solutions d’orchestration comme Kubernetes, il manque un stockage natif pour le Cloud capable de suivre ces traitements en cas de besoin ». Le projet Rook présente des blocs ou des objets répartis (les fichiers sont prévus ultérieurement) en suivant les composants d’une grappe de serveurs OpenStack, l’application Cloud et le stockage Ceph sont géolocalisés. Actuellement en version bêta, le logiciel Rook entrera en production dans le courant du premier trimestre 2018. Quantum envisage de le déployer dans ses prochaines appliances, présentées alors en tant que solutions de stockage « Cloud native », à la fois ouvertes et standards.


Turbonomic surveille les performances
du Cloud hybride

« Le défi principal du Cloud hybride, c’est son optimisation par l’entreprise », souligne Tom Murphy, le directeur marketing de Turbonomic. Sa solution de supervision d’applications est conçue pour l’environnement multicloud. Elle procure une planification des capacités devenue précieuse lorsqu’il faut décider, à chaque instant, où faire tourner ses applications au meilleur coût. Il s’agit, en pratique, de profiter de l’élasticité et de la montée en charge du Cloud pour améliorer les performances et maîtriser les coûts informatiques. Turbonomic prend en compte les règles de conformité de l’entreprise pour déployer automatiquement les workloads métiers sur les infrastructures Cloud privé ou sur un Cloud public tel qu’AWS ou Microsoft Azure.

 


Prologue simplifie
les déploiements multi-Cloud

Le portail Use it Cloud de Prologue centralise la gestion des ressources et des performances applicatives sur les principaux Clouds privés et publics. Il aide à contrôler les dépenses d’externalisation et à gérer le cycle de vie des applications où qu’elles soient déployées.

« La DSI utilisatrice dispose d’un outil fédérateur fonctionnel améliorant sa productivité en environnement multicloud, grâce à une API unifiée et à une interface utilisateur très simple. Les migrations d’applications et les déploiements de services applicatifs sont facilités et la maîtrise de tous les rouages internes de chaque Cloud n’est plus exigée », explique Hamid Medjahed, responsable R&D Use It Cloud. Use it Cloud s’appuie sur une architecture orientée micro-services, ouverte aux standards actuels tels que l’annuaire LDAP, les outils Chef, Docker et Puppet. Les infrastructures VMware vSphere et vCloud, OpenStack, Microsoft Azure, AWS, OVH, Orange et IBM Bluemix sont prises en compte.

 

 

 


Partage d’expérience

Daniel Dure,
DSI de Météo France

 

Le nuage hybride s’impose chez Météo France

 

« Le Cloud hybride est intéressant pour la maîtrise des données, des accès aux données et pour les traitements qui changent fréquemment », souligne Daniel Dure, DSI de Météo France. Si la collecte, la modélisation et les calculs de données à partir des sondes réparties sur l’Hexagone sont consolidés à Toulouse, l’architecture informatique de Météo France retient aussi un service Cloud public de notification par push hébergé sur le Cloud Azure de Microsoft. Les chercheurs, où qu’ils soient, disposent des données calculées à partir du Cloud français d’Antemeta dont le datacenter parisien publie des synthèses à destination du grand public, via les app mobiles sous IOS et Android. Plusieurs millions d’utilisateurs de smartphones sont ainsi alertés des changements de conditions météo pouvant influencer leurs activités. « Des liens dédiés d’hybridation sont tissés entre Toulouse et Paris puis entre Paris et l’Irlande pour tirer le meilleur parti des calculs intensifs, de l’hébergement et de la distribution économique, avec la qualité de services du Cloud public », précise Samuel Berthollier, directeur de la R&D et directeur technique d’Antemeta.