Accueil Périmètre

Périmètre

Selon une récente étude d'IDC, le Big Data demeure un terme flou pour 46 % des responsables informatiques. “Il y a encore beaucoup de confusion autour du Big Data”, estime Stéphane Hauray, directeur France de Kaseya, un éditeur de solutions logicielles d'automatisation IT. “Il n’y a souvent que les flux de données de type Facebook ou Google qui sont considérés comme Big Data. Cependant, la vérité est que tout type de données qui commence à devenir ingérable via des solutions de stockage et de traitement classiques répond au phénomène de Big Data. Cela peut être un journal d'événements générés dans le stockage de données d'un client ou une quantité excessive de 'tickets' d’incidents produite”. Le Big Data est présenté par le McKinsey Global Institute comme la prochaine limite vers laquelle tendront l'innovation, la concurrence et la productivité. Le site Getsatisfaction. com, partant d'une étude du même cabinet McKinsey, a publié une infographie synthétisant les éléments de l'étude (figure 1). La définition qui en est donnée est la suivante : “le Big Data fait référence aux ensembles de données dont la taille dépasse celle que les outils de stockage sont classiquement capables de gérer”. Cette définition est intentionnellement subjective car relative aux technologies du moment et ne fait pas intervenir un nombre précis de To ou de Po (pétaoctet, soit 1015 octets, soit 1 000 To ou encore 1 000 000 000 000 000 octets). Autrement dit, au fur et à mesure des avancées technologiques, la taille des ensembles de données concernés par le Big Data va également évoluer.  Pour Ronald Allard, spécialiste en solutions d'affaires chez SAS Canada, “lorsque la quantité, la diversité et la vélocité des données excèdent les capacités de stockage ou de traitement disponibles d’une entreprise pour une prise de décision rapide et pertinente, on est dans le Big Data”. Pour Jean-Michel Jurbert, responsable de marché pour les solutions BI et HANA chez SAP France, “le Big Data n'est pas nouveau : les problèmes de volumétrie existent depuis de nombreuses années. Ce qui est nouveau, c'est de parler de très gros volumes, de type petaoctets (Po), une évolution accélérée du fait du développement de la digitalisation de tous les documents et du traçage des opérations sur le Net”.