Infrastructure décisionnelle : comment intégrer Hadoop en douceur

  • Publié le : 02 juin 2014
  • Ecrit par : Aurélie Chandèze
  • Revue / Numéro : IT Business Review n°7
8,33 € HT
soit 10,00 € TTC

Le big data représente un gisement de valeur important pour les entreprises. Les technologies associées, comme Hadoop, ne constituent pas un monde à part dans les systèmes d’information. L’adoption de ces solutions encore jeunes représente un certain nombre d’enjeux, tant pour les DSI que pour les utilisateurs métier.

À ce titre, l’intégration d’Hadoop avec les outils de Business Intelligence et d’analyse des données peut rendre ce type de projets possible en réduisant les coûts, en facilitant la prise en main et en augmentant les possibilités d’interagir avec les données.

Dans les entreprises, le traitement de la donnée est en train de changer d’échelle. Succès des médias sociaux, développement des objets connectés et des capteurs intelligents, dématérialisation de plus en plus poussée des échanges : tous ces phénomènes multiplient les sources de données potentiellement exploitables, générant, dans certains cas, des données à haute vélocité, c’est-à-dire qui se renouvellent très rapidement.

Face à cette masse de données, bien souvent non-structurées, les architectures analytiques classiques ont du mal à suivre et atteignent vite leurs limites (coûts et performances). Les entreprises qui souhaitent explorer ces big data afin d’y trouver de nouveaux gisements de valeur se sont donc mises en quête d’autres solutions. Parmi celles-ci, le framework d’analyse Hadoop est, à l’heure actuelle, l’une des options suscitant le plus d’intérêt chez les DSI. Dans une étude publiée en 2013, le cabinet d’analystes Gartner souligne ainsi que « les organisations sont conscientes de la force que l’analyse basée sur Hadoop peut apporter aux projets big data », en particulier quand ceux-ci concernent « des données faiblement structurées, du texte, de l’analyse comportementale ou qu’il s’agit de requêtes basées sur des notions de temps. » Dans ce même rapport, Gartner a également estimé que, à l’horizon 2015, près de 65 % des applications analytiques avancées embarqueraient Hadoop.

Qu’est-ce que Hadoop ?

Hadoop est à l’origine un framework open source destiné à l’analyse répartie de grands volumes de données, structurées ou non. Il a été créé par Doug Cutting, puis confié à la fondation Apache en 2009. Son architecture distribuée lui permet de bénéficier d’une vraie capacité à monter en puissance : Hadoop implémente un ensemble d’algorithmes conçus pour répartir les traitements sur des grappes de serveurs, chaque nœud assurant une partie des calculs et du stockage. De ce fait, il se différencie des autres solutions positionnées sur le créneau du big data, dont la plupart reposent sur des architectures matérielles spécifiques de type appliance.

8,33 € HT
soit 10,00 € TTC

Best Practices propose des publications payantes.
Comparez nos différentes offres d'abonnement.

Aurélie Chandèze

Aurélie Chandèze

Titulaire de deux masters en informatique et en sciences de l’information, Aurélie Chandèze a débuté en tant que journaliste IT. Après avoir été analyste chez Yphise puis consultante chez Acadys, elle a rejoint Best Practices fin 2009.

REMARQUE ! Ce site utilise des cookies et autres technologies similaires.

Si vous ne changez pas les paramètres de votre navigateur, vous êtes d'accord. En savoir plus

J'ai compris