Accueil On évalue le Cloud et le Big Data open source

On évalue le Cloud et le Big Data open source

L’année 2016 verra une utilisation croissante de données hébergées sur un datacenter d’entreprise, voire dans le Cloud public, autour d’infrastructures et de frameworks open source (Linux, OpenStack, Hadoop, etc.). Une enquête récente, menée par Cloudera, note l’usage actuel de solutions libres dans 83% des sites. Elle prévoit un taux d’adoption grimpant à 91% d’ici à 2020. Les analyses en temps réel de plusieurs flux d’informations sont maintenant majoritaires sur le framework Hadoop : ils représentent 51% des usages contre 49% de requêtes et traitements portant sur les données archivées. D’ici à 2020, les accès en temps réel, requêtes itératives d’exploration, d’aide à la décision ou de modélisation de données pèseront 61% des charges applicatives.

Les analyses fondées sur des renseignements croisés aideront à qualifier les actions à prendre et à préserver les activités professionnelles. « La clé consiste à mettre l’accent sur la protection des données privées et des informations sensibles de l’entreprise. Il faut renforcer les éléments de contrôle définissant ce que chaque utilisateur a le droit de faire sur chaque site et dans le Cloud, quelles ressources il peut utiliser et où ses données doivent être sauvegardées », préconise Andrew Kellett, analyste principal d’Ovum. Selon lui, les outils sachant repérer et réduire les risques d’incident préjudiciables aux activités auront un rôle très important à jouer cette année.