Accueil Migrer vers le Software Defined Storage

Migrer vers le Software Defined Storage

stockage-cloud_Bande

Comme les serveurs virtualisés l’ont éprouvé avant lui, l’équipement de stockage gagne un meilleur rendement en grimpant vers la couche logicielle. Le pilotage des classes de disques s’effectue par des programmes exécutés sur les serveurs du datacenter. On s’approche irrémédiablement du SD-DC, Software Defined Data Center.

“L’objectif est d’industrialiser, de rationaliser les composantes du Cloud au travers de la virtualisation. La convergence et l’hyperconvergence sont les priorités de Huawei pour prendre des parts de marché, ses plus forts vecteurs de croissance en 2015”, résume Thierry Bucher, IT solutions leader, Servers, Storage & Cloud, chez Huawei Enterprise Business France.

« L’objectif est d’industrialiser, de rationaliser les composantes du Cloud au travers de la virtualisation. »

Thierry Bucher, Huawei

L’équipementier chinois atteint le 4ème rang mondial des serveurs x86 et le 7ème rang pour le stockage. Il dispose, c’est peu connu, de son propre hyperviseur pour monter un Cloud privé complet dans l’entreprise, incluant orchestrateur et catalogue de services.

Comme les plus grands acteurs du marché, Huawei conserve aussi une approche propriétaire du stockage. Ses gammes FusionServeur et FusionStorage répondent aux besoins du SDS. La première procure jusqu’à 300 To de données brutes sur un châssis composés de 4 serveurs à base de disques de 4 To, avec des mécanismes de réplication inter-serveur assurant la haute disponibilité. Selon les performances à atteindre, des disques Flash sont distribués dans le châssis, qui reçoit aussi des cartes PCI Express dopées au SSD pour accélérer les entrées-sorties. La gamme FusionStorage réunit les briques logicielles qui présentent les ressources de stockage aux serveurs physiques et virtuels.

Qui sont les clients du chinois sur l’Hexagone ? “Les premiers clients sont des prestataires de services en ligne, des professionnels de la vidéo, du cinéma ou du rendu 3D. On peut mentionner aussi un projet big data, autour d’Hadoop, dans la publicité en ligne”, précise Thierry Bucher. Depuis quelques semaines, le logiciel de virtualisation SANSymphony de Datacore vient se greffer sur l’architecture Huawei. D’autres alternatives sont proposées comme l’offre VSAN de VMware, le Server Storage de Red Hat et le programme libre Ceph dans sa distribution Suse.

Les grandes baies ouvrent leur supervision

Administrer le stockage depuis l’hyperviseur ou une console centrale du datacenter fait de plus en plus de sens. C’est la raison pour laquelle les grands équipementiers proposent désormais une supervision ouverte, au travers d’API REST le plus souvent. Cela permet à l’entreprise comme au prestataire cloud d’orchestrer les ressources de la baie de stockage sans se soucier de son fournisseur. Les dernières baies Panama d’Hitachi, en partie fabriquées à Orléans, règlent la répartition des ressources et facilitent l’automatisation des tâches. La plateforme x86 s’impose sur toutes les baies Hitachi dorénavant : “Nous proposons une seule solution de stockage, du modèle 2U pour la PME jusqu’au modèle le plus performant, avec un microcode commun. Le client gagne une interopérabilité et une supervision unifiée via Hitachi Command Suite ; il peut notamment répliquer les données d’une petite baie vers une moyenne ou vers une grande”, confirme Michel Alliel, directeur marketing produit chez Hitachi France.

En avril 2015, Hitachi a refondu son offre de baies de stockage SAN d’entrée et de milieu de gamme. Ici, un contrôleur VSP G400.
En avril 2015, Hitachi a refondu son offre de baies de stockage SAN d’entrée et de milieu de gamme. Ici, un contrôleur VSP G400.

Selon lui, les fonctionnalités les plus appréciées correspondent à la mise en œuvre des Clouds privés. L’approvisionnement dynamique des ressources jouit d’une allocation fine sur quatre niveaux possibles (containers Flash de 1,6 To ou 3,2 To, disques SSD, disques mécaniques performants ou capacitifs). Le placement automatique des fichiers en fonction de leur activité et les profils d’applications prédéfinis fournissent des entrées-sorties enfin prévisibles. “Toutes les baies de stockage sont virtualisées et elles fonctionnent en mode actif-actif nativement, sans avoir recours à une appliance supplémentaire”. Cette redondance autorise la défaillance simultanée de quatre à six disques durs, sans perte de production.

Le TCO, critère décisif

Récemment acquéreur de l’éditeur Pentaho, Hitachi propose une solution hyperconvergée dédiée aux applications analytiques ; c’est l’Hyper Scale-out Platform basée sur OpenStack, KVM et Hortonworks. Face à la percée de Dell sur les PME et les ETI, le japonais compte sur Arrow, Bull et Computacenter, entre autres, pour conquérir ce marché.

Face aux offensives commerciales d’EMC, HP ou IBM, un critère décisif reste le coût d’appropriation de la solution (TCO). Du coup, Hitachi propose une formule à géométrie variable : le fabricant ne facture pas son logiciel pour les premiers Téraoctets équipés, puis il propose un palier linéaire d’investissement incluant le logiciel de 40 à 100 To, pour revenir au logiciel non facturé au-delà. Finalement, la comparaison objective tiendra compte du coût de maintenance et de soutien technique, sur une période de trois ou quatre ans.