Ubuntu下Hadoop的集群版的安装

Ubuntu下Hadoop的集群版的安装

0,准备两个服务器

机器名    IP        作用

hadoop.main   192.168.1.102    NameNode,JobTracker,DataNode,TaskTracker

hadoop.slave   192.168.1.107    DataNode,TaskTracker

注意:两台主机必须使用相同的用户名运行

1,安装ssh

sudo apt-get install ssh

2,安装rsync

sudo apt-get install rsync

3,配置ssh免密码登录

ssh-keygen -t rsa -p '' -f ~/.ssh/id_rsa

cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

验证是否成功

ssh localhost

4,配置JDK环境和下载hadoop 1.0.3

JDK 安装路径为~/home/app/jdk1.6.0_30

Hadoop 1.0.3路径为~/hadoop-1.0.3

5,修改hadoop配置文件,指定jdk安装路径

vi conf/hadoop-env.sh

export JAVA_HOME=/home/app/jdk1.6.0_30

6,修改hadoop核心配置文件core-site.xml,配置HDFS的地址和端口号

vi conf/core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

7,修改Hadoop中HDFS配置,修改replication

vi conf/hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

8,修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口

vi conf/mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

9,格式化Hadoop的文件系统HDFS

bin/hadoop namenode -format

10,启动Hadoop

bin/start-all.sh

11,最后验证hadoop是否安装完成,打开浏览器分别输入以下网址:

http://127.0.0.1:50030     MapReduce的web界面

http://127.0.0.1:50070   HDFS的web界面

如果能够查看说明Hadoop安装成功

12,当两台主机上都按照1-11步骤安装完成hadoop环境,那么继续13

13,在/etc/hostname中修改主机名

在/etc/hosts中配置主机名和IP地址对应关系

14,将Hadoop.main节点中的~/.ssh/id_rsa.pub文件拷贝到hadoop.slave

的~/.ssh/目录下运行:

cat ./id_rea.pub >> authorized_keys

15,分别修改两台主机中的hadoop配置文件的masters和slaves

 

相关推荐