Accueil Les 12 défis de la sauvegarde dans le cloud

Les 12 défis de la sauvegarde dans le cloud

Le partage de fichiers dans le cloud – avec synchronisation des contenus multimédias entre tous les terminaux de l'utilisateur – séduit professionnels et particuliers. Mais cette sauvegarde avancée bouleverse plus d'une procédure et plus d'un plan de reprise d'activités. L'adopter exige des engagements de services stricts et plusieurs précautions.

1. L'accès Internet haut débit partout

Le partage de fichiers et de dossiers entre les utilisateurs simplifie la collaboration à distance, en temps réel. Grâce au cloud, les salariés et leurs partenaires distants peuvent contribuer à l'évolution des tâches, via la mise à jour des fichiers à tout moment pourvu qu'ils disposent des droits d'accès. Où qu'ils soient et quel que soit leur terminal, ils participent à l'évolution des projets. Mais l'accès haut débit vers Internet doit être disponible partout – des liens synchrones fixes ou mobiles sont recommandés. En effet, l'entreprise s'aperçoit, dès son premier backup vers le cloud, que la quantité de données initiale est très importante et le lien étendu souvent limité en voie montante avec les technologies xDSL. De même, le délai de restauration d'un serveur prêt à redémarrer pourra prendre plusieurs heures. Les plans de migration des entreprises vers la fibre optique et le réseau 4G devraient gommer progressivement cet obstacle. En cas de besoin, une ligne dédiée de 10 Gbps ralliera le site du prestataire qui devient une extension du réseau local. On entre alors dans un modèle de cloud hybride. «Depuis cinq ans, une croissance inimaginable caractérise ce marché émergeant. Des solutions de classe entreprise apparaissent offrant des fonctions de stockage et des options d'administration très riches. Les services de partage et de synchronisation de fichiers vont se banaliser grâce au cloud public et aux déploiements hybrides», prévoit Chandana Gopal, directrice de recherches chez IDC. En compétition, on trouve des éditeurs de logiciels de sauvegarde passant au modèle SaaS et des prestataires de services cloud. Plus d'une centaine d'acteurs s'affrontent déjà, parmi lesquels Acronis, Airwatch, Amazon, Box.net, CA, Carbonite, Citrix, Cloudwatt, Ctera, Dropbox, Egnyte, EMC, EVault, Google, GFI Max, Hightail, IBM, Ikoula, Microsoft, Mega, Mozy, Numergy, NumVision, Novell, OBS, Oodrive, OVH, Symantec, Unitrends, Veeam, Vision Solutions et Yacloud.

2. Des engagements de services stricts

Tous les services de sauvegarde en ligne n'assurent pas le partage et la synchronisation de fichiers entre les terminaux de l'utilisateur. Néanmoins, la tendance est au rapprochement des services, par intégration de logiciels open source, par acquisition de codes propriétaires ou d'un prestataire cloud. L'opérateur d'un service grand public s'engage beaucoup moins que celui d'un service professionnel. Tout au plus oubliera-t-il une échéance mensuelle en cas d'indisponibilité prolongée de son infrastructure. Les pénalités n'ont rien à voir pour une entreprise de taille intermédiaire ou pour un grand compte, en cas d'échec de la restauration des données.

«Le stockage est sans doute la brique la plus importante en volume du cloud computing. L'entreprise apprécie les offres packagées comme la mise à disposition rapide de VM avec gabarits et stockage résilient. Elle doit vérifier le niveau de responsabilité pris par son prestataire et imposer des SLA stricts en terme de disponibilité du service, de pérennité et d'intégrité des données», recommande Laurent Lacroix, le PDG de YaCloud. Il reconnait une actuelle carence d'interopérabilité entre les prestataires de stockage cloud, empêchant tout client d'un prestataire de se connecter à un autre pour basculer ses sauvegardes directement. Au-delà de l'examen des SLA et des conditions générales du service, il invite aussi à vérifier la solvabilité et l'évolutivité du sous-traitant.

3. L'indépendance du terminal

Au bureau, on attend une même simplicité de partage qu'avec un service grand public, les freins techniques sont vécus comme une perte de temps et de productivité. Que l'on dispose d'un smartphone, d'une tablette, d'un PC ou d'un navigateur web, on cherche à consulter facilement la dernière version du document partagé avec ses collègues. Côté client, «l'application doit rester simple à installer et à utiliser», confirme Jean Pierre Savi, directeur marketing des offres cloud d'Orange Business Services. Avec son offre Flexible Storage, l'opérateur français sert les PC, Mac, terminaux mobiles IOS, Android et bientôt Windows (en septembre prochain), via leur boutique en ligne respective. Outre le partage et la synchronisation des fichiers avec les postes de travail, la sauvegarde du PC de bureau avec ses favoris et celle du serveur départemental deviennent possibles. Pour une PME de 50 salariés et une volumétrie de 10 Go de données, il en coûte un peu moins de 4 euros par mois et par utilisateur. Autre possibilité, régler le service de sauvegarde à l'usage ou au Go stocké dans le nuage. Cela offre une nouvelle souplesse aux organisations dont la taille des équipes varie en cours d'année.

4. Serveurs physiques et virtuels protégés

Orange Business Services devient un opérateur cloud offrant la sauvegarde de petits serveurs et de machines physiques ou virtuelles sur le cloud via Flexible Storage. Parfois, il faut sauvegarder un grand nombre de fichiers répartis, provenant de nombreuses succursales. Avec un serveur NAS optionnel, l'opérateur déploie alors dans les locaux de ses clients un point de concentration intermédiaire, un serveur cache assurant la sauvegarde départementale vers le cloud. Cette option est une sauvegarde cloud en mode hybride. Plus ambitieux encore, le DRaaS (Disaster Recovery as a Service) est un plan de reprise d'activité délivré en tant que service. Il s'appuie sur les sauvegardes de serveurs et de postes clients dans le cloud, puis sur la restauration de charges applicatives, en cas de sinistre vers le site d'origine ou vers un site de secours. Avec le soutien des logiciels de CommVault et d'eVault et grâce à leurs API respectives, YaCloud propose ainsi plusieurs backups de serveurs physiques, de serveurs virtuels et même d'AS/400 avec plusieurs dizaines de To de données parfois. Dans ce cas, les systèmes de stockage en réseau exigeant une coupure de service à chaque mise à jour du firmware sont proscrits. En outre, un lien optique s'impose souvent entre le site du client et celui du prestataire, via un maillage d'opérateurs le cas échéant. «Nos prospects actuels veulent cesser leurs sauvegardes sur disques amovibles et sur bandes pour passer au backup dans le cloud. Ils se demandent comment faire. Tout va bien tant qu'ils n'ont pas de très grosses volumétries car, dans ce cas, il faut un réseau Internet conséquent en face», confirme Vincent Caron, le directeur technique de Yacloud. Pour réaliser le premier backup des serveurs, le prestataire suggère une sauvegarde menée localement, puis importée sur l'anneau de stockage. Ensuite, une sauvegarde différentielle, moins vorace en bande passante, est menée via le réseau.

5. La déduplication des fichiers s'impose au PRA

Avant de sauvegarder plusieurs dizaines de machines virtuelles vers le nuage, une déduplication des données s'avère précieuse. Elle réduit jusqu'à 80 % le nombre d'octets transmis sur le lien étendu. En effet, les environnements systèmes et charges applicatives des VM contiennent souvent les mêmes blocs de données. L'option est donc à prendre en considération lorsqu'un prestataire ou un éditeur la propose. En pratique, plusieurs passes de déduplication sont possibles pour gagner de l'espace disque. Mais le premier traitement suffit le plus souvent, même lorsqu'il est mené à la source où il exige un grand nombre de cycles CPU. Les logiciels tels que Veeam Backup ou eVault font partie des choix possibles. Dernièrement, la technologie AnyData d'Acronis cherche à éliminer les problèmes de compatibilité entre les sauvegardes de charges applicatives. Elle intègre la déduplication dans tout environnement physique ou virtuel, partout dans le cloud, sur les datacenters et dans les bureaux distants des succursales. La technologie AnyData revêt aussi une dimension universelle par sa prise en charge des systèmes Windows et linux, de nombreux systèmes de fichiers (NTFS, ReFS, FAT16/32, Ext2/3/4, ReiserFS3, XFS, JFS) et des principaux environnements virtuels du marché. Elle facilite les migrations V2V, V2P, P2V et P2P et gère les données MS-Exchange, SQL Server, SharePoint et l'annuaire Active Directory. Pour sa part, l'éditeur Unitrends propose une déduplication sur la cible. Il soulage les serveurs du site primaire en les secondant par des appliances dédiées. Chaque backup est vérifié pour permettre une restauration à tout moment, sur n'importe quel site. «Face à l'hétérogénéité des architectures, notre gamme soutient une centaine de serveurs, des configurations bare metal aux migrations V2P et V2V. Notre fourchette de prix oscille entre 600 dollars pour le logiciel et plus de 100 000 dollars pour l'appliance de 100 To», dépeint Mark Campbell, directeur technique et stratégie d'Unitrends. Les clients d'Unitrends utilisent ces appareils sur leur site et aussi dans le cloud de l'éditeur, dont les datacenters sont situés aux USA. Toutefois, Unitrends propose aussi de rallier Amazon ou un autre nuage plus proche du siège de ses clients européens, via un intégrateur local. S'il n'offre pas encore de services de partage et de synchronisation de fichiers, ce rival de Symantec et de Veeam devrait prochainement offrir une reprise d'activité à l'intérieur même du cloud.

6. L'intégration et le contrôle par la DSI

L'objectifd'une direction informatique consiste à harmoniser la nouvelle sauvegarde dans le cloud aux liens étendus et aux protections déjà en place dans l'entreprise. «L'administration des services Flexible Storage reste sous la tutelle de la DSI. Elle peut ainsi grouper nativement des liens VPN fournis par Orange Business Services et retenir un chiffrement des données avec un très haut niveau de sécurité en cas de besoin. La volumétrie, dédiée au client dans notre datacenter de Val-de-Rueil en Normandie, peut faire l'objet ou non de quotas par groupes d'utilisateurs», explique Jean-Pierre Savi.

Pour la sauvegarde des postes clients, la DSI choisit souvent de mettre en place la déduplication pour limiter la répétition du transfert de grands volumes identiques. L'offre OBS sait également pousser vers tout PC distant une même image du système et des applications afin de fournir un outil de production prêt à l'emploi aux nouveaux salariés ou aux anciens ayant perdu leur ordinateur portable. Pour prendre en compte les règles de sécurité et l'organigramme de ses clients, OBS intègre son offre Flexible Storage à l'annuaire Active Directory. Cela permet une identification unique et évite aux salariés d'avoir à saisir un mot de passe pour récupérer un fichier dans le cloud. Le chiffrement de l'information s'effectue lors du transport dans le réseau et également dans le datacenter. «Nous cherchons à faciliter la vie du DSI qui veut contenter sa population interne et éviter tout dérapage vers SugarSync ou Dropbox, les partages entre métiers échappant alors à tout contrôle».

Orange Business Services devient un opérateur cloud offrant la sauvegarde de petits serveurs et de machines physiques ou virtuelles via Flexible Storage.

7. Le cloud hybride laisse des traces

La console d'administration doit permettre à la DSI de définir des règles d'usages, de personnaliser les sauvegardes et de programmer certains partages dans la durée, à l'aide de réglages fins. C'est ce que propose l'éditeur français NumVision dans ses solutions NumBackup et NumSync. Des dossiers sensibles peuvent ainsi être partagés quelques heures seulement, sur des adresses internes et quelques adresses externes désignées. Les journaux captant les connexions et partages en temps réel pourront ensuite être traités par le responsable de la sécurité.

Cloud privé ou cloud public ? Les attentes des entreprises orientent le marché vers des solutions hybrides, offrant le meilleur des deux mondes. C'est ce que confirme Pierre Hoffer, directeur de la division stockage d'HP France : «Les métiers mettent l'accent sur les temps de réponse, la rapidité et l'agilité du service. Ils apprécient le mode de consommation à l'usage du cloud public. Ils veulent rester autonomes, déployer de nouveaux partages rapidement. La DSI, pour sa part, est confrontée au dilemme de portabilité des données existantes. Elle tient à faciliter les migrations et l'intégration dans un modèle cloud privé». Une infrastructure hébergée en interne convient toujours mieux aux fichiers confidentiels de l'organisation. Elle se complète d'une réplication dans le cloud avec une offre managée globalement ou uniquement sur la partie cloud. Le responsable informatique veille ainsi aux moyens de restauration depuis le cloud, aux preuves électroniques et à la protection des données personnelles. Cette approche hybride, baptisée Converged cloud chez HP, s'appuie sur l'infrastructure OpenStack où la gestion des identités, la confidentialité des données et la traçabilité des échanges forment un seul et unique projet.

8. Maîtriser les niveaux de services

Il n'y a pas un gourou de la sauvegarde dans chaque PME. Or le principal risque est lié à une restauration impossible des données, faute de vérification ou de rigueur au moment de la sauvegarde automatisée. Maîtriser les niveaux de service d'un backup dans le cloud n'est pas plus simple qu'en local ; aux aléas des médias distants s'ajoutent des écueils possibles au niveau de la préparation des données à protéger puis lors du transfert des données vers Internet. Migrer vers le cloud pour économiser un administrateur n'est donc pas le meilleur calcul à faire. Le choix du logiciel et du prestataire – les deux restants liés – ne forme pas une garantie suffisante pour obtenir une restauration des données efficace partout et à tout moment. Le logiciel Double-Take Share de Vision Solutions assure la réplication et la synchronisation de bases de données en temps réel. Plusieurs environnements systèmes (Linux, Windows, Azure, Solaris, IBM AIX et IBMi) sont supportés ainsi que les bases Oracle, Sybase, DB2 et SQL Server. L'architecture permet des partages unidirectionnels, bidirectionnels, consolidés, distribués ou en cascade. Un autre programme récent, Unified Data Protection de CA Technologies – l'éditeur d'Arcserve – tente d'innover autour d'une interface d'administration simplifiée. Il regroupe la déduplication des fichiers, le backup, la réplication des données et la haute disponibilité des serveurs en environnements physique et virtuel. Cette combinaison permet de maîtriser les niveaux de services et le recouvrement des données sauvegardées dans le cloud. «Grâce à une réplication continue des données entre les sites, on peut définir et appliquer des niveaux de services en fonction des besoins», précise Christophe Bertrand, vice-président marketing produit de la division Data Management de CA. Unified Data Protection apporte une solution aux prestataires de services qui peuvent l'intégrer dans une offre de services plus large et gérer ainsi les sauvegardes pour le compte de leurs clients. La reprise d'activité sera proposée via le cloud d'Amazon, celui de Microsoft ou au travers d'un cloud de proximité.

9. Préserver la confidentialité et l'intégrité des données

En matière de protection des fichiers confidentiels, il n'existe pas de solution universelle. En effet, chaque organisation et même chaque département de l'organisation a sa propre définition des données confidentielles. Les solutions les plus robustes s'avèrent rarement intuitives pour partager des fichiers sur un terminal mobile. Cela conduit certains utilisateurs à conserver un compte personnel de type dropbox pour sauvegarder et synchroniser ses fichiers dans le cloud. Cet accès aux ressources mutualisées d'un cloud public va généralement à l'encontre des efforts de la DSI. La gratuité du stockage dans le cloud, jusqu'à plusieurs dizaines de Go parfois, ne saurait être une justification suffisante. Par définition, le modèle freemium ne restera jamais gratuit à tous les niveaux. Depuis plusieurs mois, administrations et sociétés privées s'inquiètent de l'exploitation des données ainsi transmises et également de l'emplacement où sont stockées les fichiers d'entreprise. «Chez Amazon, les données du client Européen sont réparties entre un datacenter en Irlande et un autre aux Pays-Bas. De grands prestataires français disposent de sites en Roumanie et ne peuvent garantir que les données resteront toujours en France», illustre ainsi Laurent Lacroix. Pire, à cause d'un délai de 20 minutes pour la réplication asynchrone entre deux sites, la panne du site primaire provoquerait la perte des données qui n'ont pas encore été répliquées. «Dans ce cas, il faudra attendre la reprise du service sur le site primaire pour être tout à fait opérationnel», prévient-il.

10. Les limites du chiffrement des données

La plupart des clients professionnels souhaitent maintenant chiffrer les données à sauvegarder chez eux. «C'est une bonne règle de chiffrer les fichiers à la source car si le prestataire cloud assure le chiffrement lui-même, l'intérêt est nul. Le seul inconvénient de la démarche à la source, c'est que le client est maître des clés : il ne doit surtout pas les perdre», prévient Vincent Caron, directeur technique Yacloud. Attention cependant aux effets de bord et aux traitements incompatibles. Le chiffrement génère un overhead, c'est-à-dire une perte de performances côté client puisque c'est là que l'on va chiffrer et déchiffrer les fichiers. Certes, le chiffrement empêche tout prestataire d'accéder en clair aux fichiers sauvegardés, mais il ruine toute tentative de déduplication a posteriori. «Pour nous, le chiffrement est transparent. En stockage objet, il n'existe pas de limitation à ce niveau. Nous voyons un nom de fichier et nous savons précisément ce qui lui arrive. C'est un niveau de traçabilité suffisant», poursuit-il. Entre autres clients, le CEA archive plusieurs Peta-octets de données en local et dans le cloud via ce prestataire. L'archivage à long terme s'accompagne, dans ce cas, d'une garantie d'intégrité des données, toute la chaîne de transmission étant vérifiée.

11. Le choix du prestataire

Contrairementà un commerçant ordinaire, le prestataire de stockage en ligne dispose rarement d'une boutique ayant pignon sur rue. Il n'en possède pas moins une salle blanche ou un espace loué dans un datacenter neutre que l'on peut visiter pour en vérifier les conditions d'accès physiques, l'équipe chargée de la maintenance, la modernité des équipements retenus et les moyens de résilience mis en œuvre. Parmi les mesures préalables au choix du fournisseur de services en ligne, on vérifiera sa nationalité, sa solvabilité et sa réputation en ligne. Autrefois, on se fiait à la tête du commerçant et à sa vitrine. Cela n'est plus possible avec les échanges dématérialisés. D'autres mesures doivent donc aider à réduire la liste des prétendants, selon la confiance que l'on place dans les diverses zones du globe et les pratiques notoires de chaque pays sur les données numériques. Dans les termes du contrat de services, on veillera à préciser les conditions d'engagement sur la durée, de disponibilité, de sécurité, de confidentialité, de réversibilité (lire plus bas) et enfin de support.

12. La réversibilité du service

La clause de réversibilité précise comment récupérer ses données en cas de désaccord avec son prestataire. Cette procédure doit permettre de redémarrer ailleurs les sauvegardes, les partages et la synchronisation des fichiers entre les terminaux des utilisateurs, que ce soit en interne ou chez un autre hébergeur. En octobre 2013, Nirvanix n'a laissé que 15 jours à ses clients pour récupérer leurs données avant fermeture des serveurs, pour cause de dépôt de bilan. Cet épisode rappelle que la fin du contrat peut être provoquée par l'une ou l'autre des deux parties. Dans un délai très court – deux semaines dans le cas de Nirvanix – de gros volumes de données vont être transférés. Cela entraîne alors une saturation du réseau et provoque quelques nuits d'insomnie chez les administrateurs confrontés aux difficultés de transferts entre deux prestataires. L'entreprise s'en sort généralement par l'achat in extremis de quelques disques durs pour tout rapatrier en interne, avant de basculer vers un autre hébergeur le cas échéant. Dernier point à vérifier, la destruction dans les règles de l'art des fichiers présents sur les disques durs du prestataire défaillant. En effet, s'ils tombent entre de mauvaises mains, les fichiers clients et projets de l'entreprise pourraient être révélés à un concurrent.

La sauvegarde en ligne en seconde position

Selon une étude récente de Kroll Ontrack, spécialiste de la récupération de données numériques perdues, 15 % des entreprises retiennent une solution de sauvegarde en ligne ou sur le cloud. Mené auprès de 642 clients sondés en Europe, en Amérique du nord et dans la zone Asie-Pacifique, ce sondage montre qu'il s'agit de la deuxième protection la plus populaire dorénavant, la sauvegarde sur disque externe conservant la pole position. Viennent ensuite les bandes magnétiques puis les clés USB et d'autres dispositifs comme les disques optiques et DVD re-inscriptibles. En dépit de leurs sauvegardes, 64 % des sondés reconnaissent avoir perdu des données professionnelles et 36 % des données personnelles. Le manque d'efficacité, de régularité et de tests des backups sont en cause. «Vérifiez que les sauvegardes s'exécutent régulièrement et conformément au calendrier établi et consultez les rapports de sauvegarde pour identifier les erreurs ou les échecs», recommande le prestataire spécialisé.

GFI Max équilibre performances et sécurité

La sauvegarde GFI MAX Backup propose toute une gamme de chiffrement, du cryptage sécurisé des fichiers sur 128 bits jusqu'au cryptage Blowfish 448 bits ultra-sécurisé de niveau militaire. Les données des PC et serveurs sont protégées suivant une approche hybride D2D2C (disque-disque-cloud), plus sûre qu'une simple sauvegarde sur site. Le backup s'étend aux bases de messages MS-Exchange, aux gestionnaires de données SQL Server, MySQL, Oracle, aux disques virtuels et aux copies instantanées de VM (HyperV et VMWare). La consommation de bande passante reste maîtrisée par la technologie True Delta qui réduit le volume des sauvegardes. En outre, la sauvegarde incrémentale n'ajoute que les modifications constatées au niveau des blocs de données.

Créer son propre service de partage

Face aux attaques ciblant les services publics comme iCloud d'Apple ou Dropbox, la création de son propre service de partage de fichiers devient tentante. La société Owncloud revendique plus de 1,3 million d'utilisateurs dans le monde. Selon son directeur Marcus Rex, il n'existe pas d'appropriation possible du service d'échanges de fichiers sans ouverture réelle du logiciel. Owncloud est un logiciel Open Source qui s'appuie sur un hébergement standard supportant le langage PHP et le gestionnaire de données MySQL. Cette solution n'est donc pas entièrement gratuite. En revanche, les collaborateurs d'un projet professionnel peuvent synchroniser leurs fichiers, notes, signets, tâches et rendez-vous, qu'ils utilisent un Mac, un PC, un poste de travail linux, une tablette ou un smartphone Android ou IOS. La dernière version d'Owncloud (Enterprise Edition v6) s'intègre à l'annuaire LDAP ou à l'Active Directory de Microsoft. Elle gère l'authentification SAML et instaure des règles, propres à chaque organisation, pour l'accès aux dossiers partagés. D'autres solutions libres comme SyncAny et SparkleShare rivalisent avec Owncloud. Rappelons les quatre libertés de l'Open Source : l'exécution du programme quel qu'en soit l'objectif, l'examen de son fonctionnement et le changement de son code, enfin la redistribution du programme original ou d'une version modifiée pour aider autrui.