Accueil Stockage et sauvegarde : dans le Cloud ou en local ?

Stockage et sauvegarde : dans le Cloud ou en local ?

Google et Cisco s'allient
Cloud hybride Google et Cisco s'allient
Sommaire du dossier

Toute organisation moderne brasse ses compétences autour de données et de documents numériques. Du coup, quelle que soit sa taille, l’entreprise consomme toujours plus de stockage. C’est le cas sur et autour des terminaux fixes et mobiles des salariés, dans les unités NAS/SAN partagées en réseau et désormais aussi, sur plusieurs sites : à domicile, dans les succursales et via les hébergeurs et prestataires du Cloud. De nouvelles architectures de stockage, évolutives et distribuées, tentent de répondre à un large défi. Il s’agit de délivrer la confiance, l’intégrité et l’agilité nécessaires aux applications d’hier, d’aujourd’hui et de demain, qu’elles tournent en environnement physique ou virtuel.

Comment marier haute disponibilité et protection des données ?

Qu’ils participent à l’automatisation de la production IT ou à la sauvegarde des données cruciales, les logiciels de stockage prennent le pas sur le matériel, banalisé. Ils évoluent pour mieux répondre aux contraintes et aux exigences des environnements physiques, virtuels et Cloud.

Toute organisation moderne brasse des connaissances autour de données et de fichiers numériques. Quelle que soit sa taille, l’entreprise consomme toujours plus de stockage. C’est le cas sur et autour des terminaux fixes et mobiles des salariés, dans les baies NAS/SAN partagées en réseau et désormais aussi, sur plusieurs sites : à domicile, dans les succursales et via les hébergeurs et prestataires du Cloud.

De nouvelles architectures de stockage, évolutives et distribuées, tentent de répondre à ce large défi pour délivrer la confiance, l’intégrité et l’agilité nécessaires aux applications d’hier, d’aujourd’hui et de demain. Comment conjuguer une protection fiable et des accès continus aux flux de données toujours plus variés, véloces et volumineux ? Faut-il dorénavant placer des disques Flash au plus proche des microprocesseurs ? Ce dossier propose un panorama des dernières architectures de stockage, avec des retours d’expériences et des avis d’experts sur les défis posés aux systèmes d’informations actuels des TPE, des PME, des ETI, des prestataires de services Cloud et des grandes organisations.

Cédric Aragon, directeur de la division stockage chez IBM FranceCédric Aragon, directeur de la division stockage chez IBM France

« Avec une volumétrie qui double tous les 24 à 30 mois, nos clients sont en quête de fonctionnalités pérennes dans le temps comme la virtualisation et la compression des données. »

Une problématique à tiroirs

Chaque entreprise a sa propre définition de la haute disponibilité, en fonction des services cruciaux pour ses utilisateurs. Pour une ETI, la haute disponibilité oscille autour de 99 %, soit trois jours et demi d’indisponibilité par an. En revanche, pour un prestataire de services financiers, elle ne doit pas descendre sous les 99,99 % (50 minutes d’indisponibilité par an). Elle devrait même tendre vers les 7 neufs, c’est-à-dire 3 secondes seulement de panne généralisée dans l’année. Le ticket d’entrée pour atteindre cet objectif reste élitiste car il passe par la redondance de sites, de salles et d’équipements de stockage et par l’utilisation de composants tolérants aux pannes. Or la multiplication des disques durs se heurte aux espaces vacants des datacenters et elle gonfle rapidement la facture d’énergie, sans parler des risques de confidentialité engendrés par les réplications à distance.

Lorsqu’on constate jusqu’à sept copies pour une même donnée numérique en moyenne, on se dit que la gestion des informations professionnelles gagnerait sans doute à être revue.

Comment assurer moins de blackout, plus d’accès continus et une protection de grands volumes de données simultanément ? Tout dépend des applications prioritaires, de leur système et de leurs besoins en débit, bref de l’environnement de production complet.

 

AVIS D’EXPERT

Frédérique Patron, chef de projet au ministère de l’Intérieur

Frédérique Patron, chef de projet au ministère de l’Intérieur

Le stockage multi-Cloud impose un suivi rigoureux selon Frédérique Patron, chef de projet au ministère de l’Intérieur et auteur d’une thèse menée à l’ISEP portant sur la gouvernance d’un SI multi-cloud pilotée par les données.

“Les échanges de données avec l’extérieur pâtissent souvent d’un manque de gestion de projets”, prévient Frédérique Patron. En particulier, l’intégration des informations reste trop peu prise en compte. “L’organisation doit mettre en place un comité de gouvernance des Cloud regroupant les connaissances autour de ses actifs numériques, ne serait-ce que pour disposer d’une définition commune des données. Cette structure devra s’impliquer dans le choix des services applicatifs et celui des prestataires Cloud en fonction de la typologie des données”, préconise-t-elle. Lorsque le système d’informations d’une grande organisation est très dispersé, avec plusieurs nuages traversés, “[le comité] pourra s’appuyer sur une gestion de type MDM (Master Data Management) pour qu’en fonction de la typologie des données, il définisse une stratégie Cloud en phase avec la stratégie de l’entreprise. En environnement multi-Cloud, il faut retrouver une information cohérente, bien aiguiller ses données par type de Cloud souverain, privé ou public. Au-delà du choix des prestataires, des procédures doivent être définies pour préserver l’intégrité, la confidentialité et la disponibilité des données et pour réduire les risques fournisseurs. La réversibilité des données devient alors cruciale. Il faut gérer le changement de mode de fonctionnement des équipes internes qui doivent maintenant coordonner plusieurs fournisseurs Cloud. Cela impose un suivi de leur santé par le comité de gouvernance, afin d’anticiper la défaillance d’un prestataire Cloud et de pouvoir récupérer les données à temps.”