Accueil Expert Expertise – Il faut plus que du 100% flash pour garantir la...

Expertise – Il faut plus que du 100% flash pour garantir la performance de bout-en-bout

Gabriel Chadeau, directeur France Nimble Storage

A l’heure où le stockage Flash séduit de plus en plus d’entreprise, Gabriel Chadeau, Country Manager France de Nimble Storage, explique à nos lecteurs pourquoi performance de traitement ultra-rapide ne suffit pas à garantir une disponibilité des données continue et indique comment y remédier.

Nous vivons à l’ère du réseau sans fil à haut-débit, du stockage flash et du cloud computing à profusion. Mais ce n’est pas toujours le sentiment que l’on a ! La boule qui tourne sur votre écran, la requête qui prend des heures à s’exécuter : les retards informatiques font toujours partie de notre vie.

Ce constat est l’une des raisons d’un véritable engouement pour la rapidité de traitement du stockage flash.

Selon une récente étude d’IDC le marché mondial du stockage flash a généré 995 millions de dollars au cours du quatrième trimestre 2015, soit une croissance de 71,9% par rapport à la même période l’année précédente.

Cependant, celui qui s’attend à ce que le flash résolve à lui seul ses problèmes de performance, risque d’être déçu. Une nouvelle étude réalisée sur environ 12 000 cas de problèmes identifiés montre qu’un stockage lent n’est que l’une des raisons des retards entre les requêtes de données et la disponibilité des données, un phénomène que l’on appelle l’app-data gap (écart entre applications et données). L’explication complète réside plus profondément au sein du data center.

L’app-data gap est une réalité. Une étude du cabinet indépendant Oxford Economics révèle que le retard des applications coûte plus de 7,5 milliards de dollars par an aux entreprises américaines. Parmi les 3 000 professionnels informatiques interrogés, près de la moitié affirme perdre plus de 10% de leur temps de travail à attendre un chargement logiciel. Plus de 40% des utilisateurs métier disent éviter d’utiliser certaines applications au travail parce qu’elles s’exécutent trop lentement.

Les problèmes créés par l’app-data gap sont aussi une réalité. Cet écart perturbe la disponibilité des données, amoindrit la productivité, engendre l’insatisfaction des clients et porte préjudice au dynamisme et à la réputation de l’entreprise. Cependant, la source de l’écart est difficile à localiser. La lenteur du stockage est habituellement prise pour responsable. Mais selon une étude de Nimble Storage, qui a analysé plus de 12 000 cas documentés de problèmes « d’app-data gap » chez plus de 7 500 clients, seulement 46% des retards d’applications résultent de la lenteur du stockage.

Le principal responsable est la complexité croissante du data center avec ses multiples couches réseaux, serveurs, hyperviseurs, systèmes d’exploitation et applications. L’étude montre que 37% des retards d’application sont liés à des problèmes de configuration et d’interopérabilité. Alors que 15% proviennent des problèmes de processeur, de virtualisation et de non-respect des best practices.

image001

Si les disques SSD (flash) améliorent évidemment les performances du stockage, plus de la moitié des goulets d’étranglement ne peuvent être traités par ces derniers. Alors que les experts informatiques ne peuvent prédire quelles seront les causes des prochaines dégradations des temps de réponse, le Machine Learning en a le pouvoir.

Garantir la vélocité des données de bout en bout

Pour garantir la vélocité des données de bout en bout, les départements informatiques doivent tirer parti de l’analyse prédictive qui exploite les données collectées à partir de milliers de capteurs au sein de chaque composant du data center. Ils peuvent ainsi :

  • Identifier une faible performance avant que les utilisateurs ne soient affectés. Le Machine Learning peut être utilisé pour déterminer les environnements hautement performants au sein du data center de l’entreprise, créant ainsi une base de référence utilisée pour identifier le manque de performance et automatiquement fournir des informations exploitables.
  • Minimiser et éliminer les incidences d’un problème. Grâce au Big Data, les entreprises peuvent corréler d’immenses volumes d’informations au sein de l’infrastructure pour détecter et identifier l’origine des problèmes de performance, résolvant ainsi le problème avant que ses effets ne soient perçus au sein de l’entreprise.
  • Empêcher les entreprises d’être confrontées au même problème que leurs concurrents.Grâce au Machine Learning, une fois que le problème du client et son origine ont été déterminés, sa « signature » peut être utilisée pour identifier quels autres clients pourraient être affectés. De plus, une « règle » peut être créée pour empêcher que le même problème ne se reproduise.
  • Continuellement améliorer la performance et la disponibilité des utilisateurs. La technologie de Machine Learning peut signaler des problèmes potentiels et des comportements anormaux, ce qui permet de préconiser les étapes vers un retour à une santé optimale de l’environnement et d’améliorer constamment la performance et la disponibilité de l’environnement.

Passer au stockage flash rapide est une excellente étape vers une accélération de la performance d’une entreprise et une réduction de l’indisponibilité des applications. Mais cela n’est que la première étape. Pour combler totalement l’écart applications-données, les entreprises doivent revisiter la façon dont elles surveillent leur infrastructure. Elles ne peuvent se contenter d’évaluer des performances, des volumes des données et des prix. Elles ne peuvent non plus s’appuyer sur des indicateurs traditionnels de fiabilité et de disponibilité de l’infrastructure, qui mesurent la redondance de chaque composant mais qui interviennent peu pour assurer que tous les composants interagissent correctement. Les entreprises ont besoin d’intégrer l’analyse prédictive dès le départ, et tout le reste suivra : performance ultra-rapide, meilleure productivité et clients plus satisfaits !