Accueil Big Data Evolution des données : les prévisions 2018 pour les DSI, selon NetApp

Evolution des données : les prévisions 2018 pour les DSI, selon NetApp

Data

Les prévisions de NetApp se catalysent autour de la data, nouvel or noir de l’économie numérique. Jean-François Marie, Head Data Product & Solutions EMEA NetApp, offre son éclairage pour s’emparer des opportunités de la data et en décrypter les enjeux autour de cinq tendances.

1  Les données prennent conscience d’elles-mêmes

Nous avons aujourd’hui des processus qui agissent sur les données et déterminent comment elles sont déplacées, gérées et protégées. Mais que se
passerait-il si les données se définissaient elles-mêmes ?
Au fur et à mesure que les données prennent conscience d’elles-mêmes et
deviennent encore plus diversifiées qu’elles ne le sont aujourd’hui, les
métadonnées permettront aux données de se déplacer, se catégoriser,
s’analyser et se protéger elles-mêmes de manière proactive. Les flux entre les
données, les applications et les éléments de stockage seront mappés en temps réel, à mesure que les données fourniront les informations exactes dont
l’utilisateur a besoin au moment exact où il en a besoin. Cela permettra
également aux données de s’autogouverner. Les données elles-mêmes
détermineront qui a le droit d’y accéder, de les communiquer et les utiliser, ce qui
pourrait avoir des implications étendues sur la protection, la confidentialité, la
gouvernance et la souveraineté des données externes.
Par exemple, si vous êtes impliqué dans un accident de voiture, différentes
entités pourraient souhaiter ou exiger l’accès aux données de votre voiture. Un
juge ou une compagnie d’assurance pourrait en avoir besoin pour déterminer la
responsabilité, alors qu’un fabricant d’automobiles pourrait souhaiter optimiser
les performances des freins ou d’autres systèmes mécaniques. Les données qui
ont conscience d’elles-mêmes peuvent être balisées afin de contrôler qui en voit
quelle partie et quand, sans délai supplémentaire ni intervention humaine
potentiellement sujette à erreurs, pour subdiviser, approuver et diffuser ces
données précieuses.

2  Les machines virtuelles deviennent des machines partagée

Il sera plus rapide, plus économique et plus pratique de gérer des données de
plus en plus distribuées à l’aide de machines virtuelles, qui seront provisionnées
sur une infrastructure à l’échelle du Web, plutôt que sur des machines réelles.
L’analogie est l’achat d’un véhicule, sa location ou l’utilisation d’un
service de covoiturage tel qu’Uber ou Lyft. Si vous transportez de lourdes
charges tous les jours, il serait logique d’acheter un véhicule utilitaire. Quelqu’un
d’autre ne pourrait avoir besoin que d’un certain type de véhicule pendant une
période donnée, et donc s’orienterait vers la location. Et puis, il y a ceux qui n’ont
besoin d’un véhicule que pour aller du point A au point B, une seule
fois. Le type de véhicule n’a pas d’importance. Seuls l‘aspect pratique et la
vitesse importent. Un service de covoiturage est donc la meilleure option.
Cette même réflexion s’applique au contexte des instances de machines
virtuelles et physiques. Le matériel personnalisé peut être coûteux, mais pour
des charges de traitement régulières et intensives, il peut être plus judicieux
d’investir dans une infrastructure physique. Une instance de machine virtuelle
dans le Cloud, traitant des charges variables, est similaire à la location : les
utilisateurs peuvent accéder à la machine virtuelle sans la posséder ni avoir
besoin de connaître les détails la concernant. En fin de « bail », elle disparaît.
Les machines virtuelles provisionnées sur une infrastructure à l’échelle du Web
(c’est-à-dire sans serveur) sont comme un service de covoiturage, dans lequel
l’utilisateur spécifie simplement la tâche devant être exécutée. Le reste des détails est laissé aux soins du prestataire de Cloud. Ce modèle est plus pratique
et plus facile à utiliser que les modèles traditionnels pour certains types de
charges de traitement.

Les données vont croître plus rapidement que la capacité de les transporter

Les données sont devenues incroyablement dynamiques et sont générées à un
rythme sans précédent, qui dépassera largement la capacité de les déplacer.
Cependant, au lieu de déplacer les données, les applications et les ressources
chargées de les traiter seront rapprochées des données. Cela aura des
implications sur les nouvelles architectures de type Edge, Core et Cloud. À
l’avenir, la quantité de données ingérées par les architectures Core sera toujours
inférieure à la quantité générée par les architectures Edge. Cela ne se produira
pas par accident, mais sera implémenté délibérément ainsi pour garantir que
seules les bonnes données soient conservées à des fins de prise de décision.
Par exemple, les constructeurs de véhicules autonomes ajoutent des capteurs
qui génèrent tellement de données qu’il n’existe pas de réseau assez rapide
entre les véhicules et les datacenters pour les transférer. Historiquement, les
appareils de périmètre ne créaient pas beaucoup de données, mais avec des
capteurs désormais intégrés dans des véhicules, des thermostats, des appareils
portables et autres, la quantité de données générées au niveau du périmètre
augmente si vite qu’elle dépassera la capacité des connexions réseau du Core.
Les voitures autonomes et autres appareils de périmètre nécessitent des
analyses en temps réel au niveau du périmètre afin de prendre des décisions
critiques en temps réel. Par conséquent, nous allons rapprocher les applications
des données.

4  L’évolution du Big Data vers le Huge Data nécessitera de nouvelles architectures

À mesure que les besoins en analyse d’énormes ensembles de données
augmentent toujours plus rapidement, nous devons rapprocher les données des
ressources de traitement. La mémoire persistante permettra un temps de latence
ultra-faible sans perte de données, et ces exigences en latence forceront
finalement les architectures logicielles à se transformer pour apporter aux
entreprises de nouvelles opportunités reposant sur les données. La technologie
Flash est un sujet brûlant. Cependant, les logiciels qui y sont hébergés n’ont pas
vraiment changé. Ils sont simplement devenus plus rapides. Cela est motivé par l’évolution du rôle de l’informatique dans l’entreprise. Dans le passé, la principale fonction de l’informatique était d’automatiser et d’optimiser les processus de commande, de facturation, de créances et autres. Aujourd’hui, l’informatique est essentielle à l’enrichissement des relations clients, et pour proposer des services toujours disponibles, des applications mobiles et des expériences web enrichies. L’étape suivante consistera à monétiser les données collectées à l’aide des différents capteurs et appareils, afin de créer de nouvelles opportunités commerciales. Cette étape nécessitera de nouvelles architectures applicatives reposant notamment sur de la mémoire persistante.

5  Émergence de mécanismes décentralisés immuables pour gérer les données

Des mécanismes permettant de gérer les données de manière fiable, immuable
et réellement distribuée (sans autorité centrale) verront le jour et auront un
impact profond sur le datacenter. La blockchain en est un excellent exemple.
Des mécanismes décentralisés tels que la blockchain défient le sens traditionnel
de la protection et de la gestion des données. Sans point de contrôle central, tel
qu’un serveur centralisé, il est impossible de modifier ou de supprimer les
informations contenues dans une blockchain, et toutes les transactions sont
irréversibles. Cela ressemble à un système biologique comprenant une multitude de petits organismes. Chacun sait ce qu’il est censé faire sans avoir à communiquer avec quoi que ce soit d’autre ni recevoir d’instructions. Vous ajoutez ensuite des nutriments, à savoir dans ce cas, des données. Les nutriments savent ce qu’ils doivent faire et tout commence à fonctionner de manière coopérative, sans aucun contrôle central. Comme un récif de corail.
Les applications et les datacenters actuels fonctionnent comme des fermes, avec
un point de contrôle central (l’agriculteur) gérant l’environnement. Les
mécanismes immuables décentralisés de gestion des données proposeront des
microservices que les données pourront utiliser pour remplir les fonctions
nécessaires. Les microservices et les données coopéreront ensemble, sans
contrôle centralisé.