Hadoop, HDFS et MapReduce forment l’ossature logicielle d’une infrastructure Big Data, de son architecture en cluster avec des nœuds, à sa capacité de traitement au service de l’analyse.

 

Au delà de la consolidation du stockage de gros volumes de données, structurées et non structurées, et dispersés, le Big Data propose d’élever la valeur de l’information stockée par l’entreprise ou accessible sur ses réseaux en apportant une couche de traitement qui va supporter les outils d’analyse.

Pour cela, les solutions de Big Data intègrent une couche de support d’applications, ce que nous appelons un framework, qui fait lien entre la couche de stockage et le traitement de la donnée.