En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour recueillir vos informations de connexion, collecter des statistiques en vue d'optimiser les fonctionnalités du site et adapter son contenu à vos centres d'intérêt.
En savoir plus et paramétrer les cookies Accepter
Comparateur de logiciels de gestion
Avec notre comparateur en ligne, trouvez en quelques clics la solution à votre besoin
agenda
Agenda
Solutions IT
  • 12/03/2018
    7ème édition de Big Data Paris

    Le congrès Big Data Paris se tiendra les 12 et 13 mars 2018 à Paris…

    en détail En détail...
  • 14/03/2018
    IT Partners, le rendez-vous de la communauté des décideurs du channel IT

    Le rendez-vous de la communauté des décideurs du channel IT français ouvrira ses portes les 14 et…

    en détail En détail...
NTT secu_Threat Intelligence report_leaderboard

Hadoop monte en puissance

NTT secu_Threat Intelligence report_pave

Hadoop est un framework Open Source destiné au traitement de volumes importants de données, de l'ordre de plusieurs petaoctets (Po). Il ouvre des perspectives encore inenvisageables il y a quelques mois ou années seulement, c'est pourquoi il a actuellement le vent en poupe, au point que tous les acteurs du monde de la BI (Oracle, Microsoft, IBM, SAS, MicroStrategy, Teradata etc.) proposent désormais des solutions autour de cet écosystème. Initialement développé en 2004 en Java par Doug Cutting (également à l'origine de Lucene et Nutch), alors employé par Yahoo!, il est depuis 2009 placé sous l'égide de la fondation Apache. Le socle de Hadoop est Hadoop Common, une série d'utilitaires venant étayer les différents sous-projets Hadoop. Parmi ceux-ci, citons HDFS (Hadoop Distributed File System), le système de fichiers distribués qui permet les hauts débits nécessaires à l'accès aux données applicatives, et MapReduce, un framework applicatif distribuant les traitements de gros ensembles de données sur différents clusters. Hadoop fonctionne selon le principe des grilles de calcul (grid computing) et répartit les traitements sur les noeuds de serveurs disponibles. Le système HDFS gère la répartition des données sur les différents noeuds et la distribution et la gestion des calculs sont prises en charge par MapReduce. Les autres sous-projets de Hadoop sont notamment les bases de données évolutives Cassandra (initiée par Facebook) et HBase, le système de sérialisation de données Avro, l'infrastructure d'entrepôt de données Hive ou encore le système de collecte de données Chukwa.

Hadoop monte en puissance
Notez cet article

Article précedent
«V» comme valeur


Laisser un commentaire

Threat Intelligence Report

À travers sa plateforme de cyberveille mondiale, NTT Security analyse 40 % du trafic Internet dans le monde. Découvrez le dernier rapport du centre mondial de cyberveille (Global Threat Intelligence Center) sur l’état des menaces au troisième trimestre 2017

Lire le rapport

Sondage

Noël : quel cadeau High tech pour vous même ou vos proches? (3 choix possibles)

Voir les résultats

Loading ... Loading ...
Nos derniers dossiers
Témoignages
Juridique
  • Juridique - Données personnelles ou non : vers un marché numérique unique ?

      Le 13 septembre 2017, la Commission européenne a adopté la proposition de règlement fixant…

    > En savoir plus...
Paroles d'experts
Paroles
d'experts
  • SD-WAN : Wan Cloud first et Wan edge à l'honneur en 2018 selon David Hughes, PDG de Silver Peak

    David Hughes, le fondateur et PDG de Silver Peak, livre sa vision pour 2018 du…

    > En savoir plus...
Etudes/Enquêtes
  • Plus de logiciels légitimes seront infectés en 2018 selon Kaspersky Labs

    Quelles attaques ciblées majeures ? Quelles industries menacées ? Chaque année, Kaspersky livre ses prédictions…

    > En savoir plus...
newsletter
Inscription Newsletter

Restez informé. L’abonnement à la newsletter est gratuit.

> Abonnement

Guide de la cybersécurité 2017-2018

BlueMind_Nouvelle version_skycraper
Agenda
livres blancs
Les Livres
Blancs
elo_processus pointe_skyscraper