如何在Centos6.5下,部署完全分布式集群
我们来看下,如何在Centos6.5下,部署完全分布式集群。
下面先来看下具体的系统环境
序号 | 名称 | 描述 | 1 | 系统环境Centos6.5 | 最好在linux上部署 | 2 | Hadoop版本Hadoop2.2.0 | Hadoop2.x中的第一个稳定版本 | 3 | JAVA环境JDK1.7 | 64位(build 1.7.0_25-b15) |
部署情况
序号 | IP地址 | 节点名 | 1 | 192.168.46.28 | hp1(master) | 2 | 192.168.46.29 | hp2(slave) | 3 | 192.168.46.30 | hp3(slave) |
部署步骤
序号 | 操作 | 1 | 配置SSH无密码登陆 | 2 | 配置环境变量JAVA(必须),MAVEN,ANT | 3 | 配置Hadoop环境变量 | 4 | 配置core-site.xml文件 | 5 | 配置hdfs-site.xml文件 | 6 | 配置mapred-site.xml文件 | 7 | 配置yarn-site.xml文件 | 8 | 配置slaves文件 | 9 | 分发到从机上 | 10 | 在每台机器上格式化namenode | 11 | 启动集群sbin/start-all.sh | 12 | 执行jps命令,查询master与slave的java进程 | 13 | 测试页面访问,集群状态信息, | 14 | 可以测试一个MR作业,验证集群 |
1,首先我们的集群之间的ssh是信任的,方便hadoop进程之间的通信。
生成公钥:ssh-keygen -t rsa -P ''
拷贝信任:ssh-copy-id -i .ssh/id_rsa.pub root@hp2
2,配置各种环境变量包括java,maven,ant,hadoop等的变量,代码如下:
export PATH=.:$PATH export JAVA_HOME="/usr/local/jdk" export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/root/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export CLASSPATH=.:$CLASSPATH:$HADOOP_HOME/lib export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export ANT_HOME=/usr/local/ant export CLASSPATH=$CLASSPATH:$ANT_HOME/lib export PATH=$PATH:$ANT_HOME/bin export MAVEN_HOME="/usr/local/maven" export CLASSPATH=$CLASSPATH:$MAVEN_HOME/lib export PATH=$PATH:$MAVEN_HOME/bin
export PATH=.:$PATH export JAVA_HOME="/usr/local/jdk" export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/root/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export CLASSPATH=.:$CLASSPATH:$HADOOP_HOME/lib export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export ANT_HOME=/usr/local/ant export CLASSPATH=$CLASSPATH:$ANT_HOME/lib export PATH=$PATH:$ANT_HOME/bin export MAVEN_HOME="/usr/local/maven" export CLASSPATH=$CLASSPATH:$MAVEN_HOME/lib export PATH=$PATH:$MAVEN_HOME/bin
3,配置core-site.xml文件
192.168.46.28 192.168.46.29 192.168.46.30
192.168.46.28 192.168.46.29 192.168.46.30
配置好后,注意,在hdfs-site.xml文件里的目录,需要自己在hadoop根目录下创建,以及hadoop的HDFS的tmp目录。一切做好之后,我们就可以分发整套hadoop到从机上,然后格式化namenode,并启动集群,使用jps在主机,和从机上分别显示如下:
master的jps显示如下:
4335 SecondaryNameNode 4464 ResourceManager 4553 NodeManager 4102 NameNode 4206 DataNode 6042 Jps
4335 SecondaryNameNode 4464 ResourceManager 4553 NodeManager 4102 NameNode 4206 DataNode 6042 Jps
slave上的jps显示如下:
1727 DataNode 1810 NodeManager 2316 Jps
1727 DataNode 1810 NodeManager 2316 Jps
确实jps命令显示的java进程正确,我们就可以访问,web界面进行查看了,截图如下:
至此,我们已经成功的部署完成hadoop集群,安装时,注意散仙的步骤,按这样顺序来,一般不容易不错。
相关推荐
deyu 2020-07-21
taisenki 2020-05-27
地平线 2020-11-02
ptmagic 2020-10-31
joynet00 2020-09-23
互联网架构之路 2020-09-17
阿义 2020-09-11
思君夜未眠 2020-08-25
zyshappy 2020-08-16
liangwenrong 2020-07-31
唐亚杰 2020-07-17
zhangll00 2020-07-05
Cheetahcubs 2020-07-05
憧憬 2020-07-04
middleware0 2020-06-27
joynet00 2020-06-26
亦碎流年 2020-06-18
wqbala 2020-06-14
亦碎流年 2020-06-09