Hadoop
Un framework open-source per l'elaborazione distribuita di grandi volumi di dati. Utilizza modelli di programmazione semplificati come MapReduce.
Cos'è Hadoop
Hadoop è un framework open-source sviluppato dalla Apache Software Foundation per l'elaborazione distribuita di grandi volumi di dati.Si basa su un'architettura di calcolo distribuito che permette di gestire e processare enormi quantità di dati in parallelo su cluster di computer, utilizzando modelli di programmazione semplificati come MapReduce.
Hadoop è composto da quattro moduli principali:
1. **Hadoop Common**: Raccolta di utilità e librerie comuni che supportano gli altri moduli Hadoop.
2. **Hadoop Distributed File System (HDFS)**: Un sistema di file distribuito che consente di archiviare grandi quantità di dati su più macchine.
3. **Hadoop YARN**: Un gestore di risorse per distribuire e gestire i compiti di elaborazione dati tra i vari nodi di un cluster.
4. **Hadoop MapReduce**: Un modello di programmazione utilizzato per elaborare grandi quantità di dati in parallelo.