-->

Intelligenza Artificiale

A un certo punto non fu più la biologia a dominare il destino dell'uomo, ma il prodotto del suo cervello: la cultura.
Cosicché: "Le uniche leggi della materia sono quelle che la nostra mente deve architettare e le uniche leggi della mente sono architettate per essa dalla materia".
JAMES CLERK MAXWELL

Installare Hadoop


Installazione di Hadoop su macOS Una guida dettagliata su come installare Hadoop su macOS

installazione di Hadoop su macOS

L'installazione di Hadoop su macOS può essere effettuata seguendo alcuni passaggi specifici. Ecco una guida dettagliata su come installare Hadoop su macOS:

Prerequisiti


- **Java**: Hadoop richiede Java per funzionare.
È necessario avere installato Java Development Kit (JDK).
Per verificare se Java è già installato, apri il terminale e digita:
    
java -version
    
    
Se Java è installato, vedrai la versione.
Altrimenti, puoi installare Java usando Homebrew:

brew install openjdk

Installare Hadoop

Puoi installare Hadoop utilizzando Homebrew o scaricando manualmente i file binari.

brew install hadoop

Installazione manuale

Scarica l'ultima versione di Hadoop

dal sito ufficiale di Apache Hadoop: [Hadoop Downloads](https://hadoop.apache.org/releases.html).

Estrai il file scaricato

In una directory a tua scelta.

tar -xzf hadoop-3.x.x.tar.gz
mv hadoop-3.x.x /usr/local/hadoop


Configura le variabili di ambiente

Aggiungendo le seguenti righe al tuo file
`~/.bash_profile` o
`~/.zshrc` (a seconda della shell che stai usando):

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

Carica le nuove variabili di ambiente:


source ~/.bash_profile


Configurare Hadoop

Modifica il file `hadoop-env.sh`

Modifica il file `hadoop-env.sh` per assicurarti che punti alla tua installazione di Java.
Puoi trovare il file in:
   
   $HADOOP_HOME/etc/hadoop/hadoop-env.sh
   
   
Aggiungi o modifica la riga seguente:
    
   export JAVA_HOME=$(/usr/libexec/java_home)
    
    

Configurare `core-site.xml`

Crea un file di configurazione `core-site.xml` in `$HADOOP_HOME/etc/hadoop/` con il seguente contenuto:
   
   ```xml
   <configuration>
    <property>
           <name>fs.defaultFS </name>
           <value>hdfs://localhost:9000 </value>
    </property >
    </configuration >
   
   

Configurare `hdfs-site.xml`

Crea il file `hdfs-site.xml` in `$HADOOP_HOME/etc/hadoop/` con il seguente contenuto:
   
   ```xml
   <configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
     <property>
          <name>dfs.name.dir
          <value>file:///usr/local/hadoop/hdfs/namenode
     </property>
     <property>
           <name>dfs.data.dir</name>
           <value>file:///usr/local/hadoop/hdfs/datanode</value>
     </property>
   </configuration>
   

Configurare `mapred-site.xml`


Copia il file di esempio e modificalo:
   
   ```bash
   cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml
   

Aggiungi la configurazione seguente:
   
   ```xml
  <configuration>
    <property>
           <name>mapreduce.framework.name</name>
           <value>yarn</value>
     </property>
     </configuration>
   
   

Configurare `yarn-site.xml`


Crea il file `yarn-site.xml` in `$HADOOP_HOME/etc/hadoop/` con il seguente contenuto:
   
   ```xml
   <configuration>
       <property >
           <name>yarn.nodemanager.aux-services</name >
           <value>mapreduce_shuffle</value>
        </property>
    </configuration>
   
   

Formattare il Namenode

Prima di avviare Hadoop, è necessario formattare il Namenode:
    
hdfs namenode -format
    
    

Avviare Hadoop


Puoi avviare i demoni Hadoop con i seguenti comandi:

start-dfs.sh
start-yarn.sh


Per verificare che tutto funzioni correttamente, puoi aprire il browser e andare a questi indirizzi:
- HDFS NameNode: [http://localhost:9870](http://localhost:9870)
- ResourceManager: [http://localhost:8088](http://localhost:8088)

Esecuzione di un Job MapReduce


Per testare l'installazione, puoi eseguire un esempio predefinito:

hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 16 1000


Questo eseguirà un job MapReduce che calcola il valore di Pi.

Arrestare Hadoop


Per arrestare Hadoop, utilizza i seguenti comandi:

stop-yarn.sh
stop-dfs.sh