hadoop0.20.2配置 in linux(ubuntu)
配置ssh
创建密钥,这里p后面是空密码,不推荐使用空密码
ssh-keygen -t rsa -P ''
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
配置完后,执行一下 ssh localhost, 确认你的机器可以用 SSH 连接,并且连接时不需要手工输入密码
下载hadoop
wgethttp://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-0.20.2/hadoop-0.20.2.tar.gz
tar -xvf hadoop-0.20.2.tar.gz
增加环境变量
在/etc/environment
HADOOP_HOME=目录路径
JAVA_HOME=jdk路径
在/etc/profile中增加
exportHADOOP_HOME=目录路径
export JAVA_HOME=jdk路径
修改hadoop配置文件
修改$HADOOP_HOME/conf/hadoop-env.sh
#export JAVA_HOME=
改为export JAVA_HOME=jdk路径
设置HDFS目录
mkdir /$HOME/tmp
chmod -R 777 /$HOME/tmp
修改/conf/core-site.xml文件
增加
<property>
<name>hadoop.tmp.dir</name>
<value>/home/du/tmp</value>
<description>Abaseforothertemporarydirectories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
</property>
修改conf/mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
<description>ThehostandportthattheMapReducejobtrackerruns
at.If"local",thenjobsarerunin-processasasinglemap
andreducetask.
</description>
</property>
修改conf/hdfs-site.xml
增加
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Defaultblockreplication.
Theactualnumberofreplicationscanbespecifiedwhenthefileiscreated.
Thedefaultisusedifreplicationisnotspecifiedincreatetime.
</description>
</property>
格式化文件系统
hadoop namenode -format
启动伪分布式
$HADOOP_HOME/bin/start-all.sh
检查是否启动成功
jps
18160 SecondaryNameNode
17777NameNode
17970DataNode
18477Jps
18409TaskTracker
18231JobTracker
停止
$HADOOP_HOME/bin/stop-all.sh
hadoop web访问接口
http://localhost:50030/job tracker访问
http://localhost:50060/ task tracker访问
http://localhost:50070/name node访问