Přejděte na cestu, kde je hadoop nainstalován. vyhledejte ${HADOOP_HOME}/etc/hadoop
, např.
/usr/lib/hadoop-2.2.0/etc/hadoop
Když zadáte ls pro tuto složku, měli byste vidět všechny tyto soubory.
capacity-scheduler.xml httpfs-site.xml
configuration.xsl log4j.properties
container-executor.cfg mapred-env.cmd
core-site.xml mapred-env.sh
core-site.xml~ mapred-queues.xml.template
hadoop-env.cmd mapred-site.xml
hadoop-env.sh mapred-site.xml~
hadoop-env.sh~ mapred-site.xml.template
hadoop-metrics2.properties slaves
hadoop-metrics.properties ssl-client.xml.example
hadoop-policy.xml ssl-server.xml.example
hdfs-site.xml yarn-env.cmd
hdfs-site.xml~ yarn-env.sh
httpfs-env.sh yarn-site.xml
httpfs-log4j.properties yarn-site.xml~
httpfs-signature.secret
Základní nastavení konfigurace jsou k dispozici na hadoop-env.sh.
V tomto souboru můžete vidět nastavení classpath a pro vaši referenci jsem zkopíroval několik ukázek.
# The java implementation to use.
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_67
# The jsvc implementation to use. Jsvc is required to run secure datanodes.
#export JSVC_HOME=${JSVC_HOME}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR}
# Extra Java CLASSPATH elements. Automatically insert capacity-scheduler.
for f in $HADOOP_HOME/contrib/capacity-scheduler/*.jar; do
export HADOOP_CLASSPATH=${HADOOP_CLASSPATH+$HADOOP_CLASSPATH:}$f
done
Doufám, že to pomůže!
hadoop-core jar soubor je v adresáři ${HADOOP_HOME}/share/hadoop/common, nikoli v adresáři ${HADOOP_HOME}.
Proměnnou prostředí můžete nastavit v souboru .bashrc.
vim ~/.bashrc
Poté přidejte následující řádek na konec souboru .bashrc.
export HADOOP_HOME=/your/hadoop/installation/directory
Stačí nahradit cestu vaší instalační cestou hadoop.
Nastavte systémové datum a čas pomocí C++ v Linuxu
Jak se dotknout souboru a mkdir v případě potřeby na jednom řádku