-->

Intelligenza Artificiale

A un certo punto non fu più la biologia a dominare il destino dell'uomo, ma il prodotto del suo cervello: la cultura.
Cosicché: "Le uniche leggi della materia sono quelle che la nostra mente deve architettare e le uniche leggi della mente sono architettate per essa dalla materia".
JAMES CLERK MAXWELL

Hadoop


Un framework open-source per l'elaborazione distribuita di grandi volumi di dati. Utilizza modelli di programmazione semplificati come MapReduce.

Cos'è Hadoop

Hadoop è un framework open-source sviluppato dalla Apache Software Foundation per l'elaborazione distribuita di grandi volumi di dati.
Si basa su un'architettura di calcolo distribuito che permette di gestire e processare enormi quantità di dati in parallelo su cluster di computer, utilizzando modelli di programmazione semplificati come MapReduce.
Hadoop è composto da quattro moduli principali:
1. **Hadoop Common**: Raccolta di utilità e librerie comuni che supportano gli altri moduli Hadoop.
2. **Hadoop Distributed File System (HDFS)**: Un sistema di file distribuito che consente di archiviare grandi quantità di dati su più macchine.
3. **Hadoop YARN**: Un gestore di risorse per distribuire e gestire i compiti di elaborazione dati tra i vari nodi di un cluster.
4. **Hadoop MapReduce**: Un modello di programmazione utilizzato per elaborare grandi quantità di dati in parallelo.