La roadmap du Big Data
Le Big Data est un domaine où les investissements n’ont de sens que s’ils sont pensés pour le moyen ou le long terme. À part quelques initiatives pilotes avec un périmètre réduit, les projets Big Data ont vocation à créer de la valeur durable. Y associer une roadmap constitue un atout pour atteindre cet objectif.
Les multiples études sur le marché du Big Data et les investissements des entreprises mettent régulièrement en exergue la multiplicité des cas d’usage, le potentiel quasi infini de l’exploitation et de la valorisation des données, ainsi que des éléments de réflexion sur les architectures, infrastructures et compétences. On peut comprendre que, face à une telle diversité de business cases, de technologies, de prestataires et de parties prenantes, dans et hors de l’entreprise, les DSI puissent être désorientés devant l’ampleur de la tâche et, potentiellement, les risques liés aux projets Big Data qui, pour la plupart, explorent des domaines peu ou pas connus. Ces craintes, si elles sont légitimes, ne doivent pas occulter les promesses et les espoirs que suscite le Big Data. D’autant que le risque d’échec est significatif : seulement 27 % des projets Big Data sont considérés comme profitables, 45 % sont à l’équilibre et un sur dix est déficitaire, selon l’étude The Big Data payoff, publiée en 2016 par CapGemini et Informatica.
Pour aller plus loin et rendre concret (et profitable) le Big Data dans les entreprises, il est pertinent d’élaborer une véritable roadmap, de manière à bien cadrer les projets et à pouvoir les mener à terme sans encombre. Une roadmap Big Data s’articule autour de dix principes, qui sont autant de bonnes pratiques.
1. Auditer l’existant
Avant de débuter un projet Big Data, il est essentiel d’avoir une connaissance précise du contexte et de l’environnement, de manière à identifier très en amont les éventuels obstacles auxquels l’entreprise va être confrontée. Mais aussi les leviers sur lesquels on pourra s’appuyer en priorité pour accélérer le Time to Market. Cet audit de l’existant peut s’inspirer des caractéristiques du Big Data. Il est généralement défini par cinq V : volume, vitesse, variété, valeur, véracité. L’analyse portera donc sur ces éléments afin de répondre aux interrogations suivantes :
- Quels sont les volumes de données disponibles ?
- Quel est le circuit des flux de données ?
- Quelle est la diversité des données et quelle typologie peut-on élaborer ?
- Quelle est la valeur de chaque type de données ?
- Quelle est le degré de qualité des données ?
Best Practices propose des publications payantes.
Comparez nos différentes offres d'abonnement.

Philippe Rosé
Docteur en sciences économiques et auteur d’une vingtaine d’ouvrages sur le management des systèmes d’information, Philippe Rosé est rédacteur en chef des publications Best Practices.