Accueil La restitution des données devient trop difficile

La restitution des données devient trop difficile

“La sauvegarde actuelle s’avère souvent inefficace, avec des fenêtres de backup trop étroites au regard des volumes croissants. A cela s’ajoute un nombre important d’échecs de sauvegarde, ce qui rend la restauration des données très périlleuse ”, observe Thierry Auzelle, Directeur de la division BRS (Backup Recovery Systems) d’EMC. En pratique, la qualité des sauvegardes d’entreprise se dégrade avec la volumétrie croissante des données. “Certaines sociétés ne préservent plus que 60% de leurs informations critiques, faute de pouvoir respecter les fenêtres de backup. Et les pannes sont de plus en plus nombreuses, ce qui pose un vrai souci lors de la restauration des données”, ajoute-t-il. A l’ère de la consolidation des ressources, on regroupe les serveurs et leurs baies de disques dans un datacenter, le plus souvent au siège de l’entreprise. Du coup, la sauvegarde devient globale ; elle agrège les fichiers de toutes les agences. L’archivage sur bande forme un goulet d’étranglement. Il devient urgent d’atténuer les effets du tsunami de données. Mais comment ? Force est de constater que les technologies de compression n’y suffisent plus, une grande partie des fichiers étant nativement compressés, par les applications elles-mêmes. La déduplication des fichiers forme une piste plus sérieuse. En amont de la sauvegarde sur disque, cette étape complète la compression plus qu’elle ne la remplace. Et, elle s’adapte à l’architecture de chaque entreprise ou collectivité. Après avoir identifié les blocs de fichiers semblables, la déduplication organise leur indexation pour ne transmettre que les blocs modifiés vers une sauvegarde centralisée. La réplication des fichiers uniques pourra ainsi faire l’objet d’une copie de secours externe, sur un site distant ou dans le nuage, via un hébergeur ou un prestataire Cloud.