hadoop 2.2.0 伪分布安装

Linux配置

1、配置ip地址:192.168.56.100/24

2、修改主机名:/etc/sysconfig/network

3、修改主机名和IP地址的映射:/etc/hosts

4、关闭防火墙:    service iptables stop、chkconfig iptables off

reboot

解压命令:tar -zxvf

安装jdk

解压jdk后,在/etc/profile文件中配置环境变量

export JAVA_HOME=/usr/java/jdk1.7.0_79
export PATH=$PATH:$JAVA_HOME/bin

 然后source该文件,然后查看jdk的版本,看是否配置成功

[root@centos1 bin]# java -version
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) Client VM (build 24.79-b02, mixed mode)

安装hadoop2.2.0

到该地址去下载,找stable或current目录,该目录为稳定版

http://archive.apache.org/dist/
http://archive.apache.org/dist/hadoop/core/stable/

 解压文件,后开始配置hadoop,这里一共需要配置五个文件

文件一:hadoop-env.sh

位置:

hadoop-2.2.0/etc/hadoop

 配置:

export JAVA_HOME=/usr/java/jdk1.7.0_79

文件二:core-site.xml

位置:

hadoop-2.2.0/etc/hadoop

配置:

<configuration>
		<!-- 制定HDFS的老大(NameNode)的地址 -->
		<property>
			<name>fs.defaultFS</name>
			<value>hdfs://centos1:9000</value>
		</property>
		<!-- 指定hadoop运行时产生文件的存储目录 -->
		<property>
			<name>hadoop.tmp.dir</name>
			<value>/usr/hadoop/hadoop-2.2.0/tmp</value>
     		</property>
</configuration>

 文件三:hdfs-site.xml

位置:

hadoop-2.2.0/etc/hadoop

配置:

<configuration>
		<!-- 指定HDFS副本的数量 -->
		<property>
			<name>dfs.replication</name>
			<value>1</value>
	        </property>
</configuration>

 文件四:mapred-site.xml

该文件并不存在,但是有一个mapred-site.xml.template存在,修改该文件的名称

mv mapred-site.xml.template mapred-site.xml

位置:

hadoop-2.2.0/etc/hadoop

配置:

<configuration>
		<!-- 指定mr运行在yarn上 -->
		<property>
			<name>mapreduce.framework.name</name>
			<value>yarn</value>
       		</property>
</configuration>

 文件五:yarn-site.xml

位置:

hadoop-2.2.0/etc/hadoop

配置:

<configuration>
	<!-- 指定YARN的老大(ResourceManager)的地址 -->
		<property>
			<name>yarn.resourcemanager.hostname</name>
			<value>centos1</value>
        </property>
		<!-- reducer获取数据的方式 -->
        <property>
			<name>yarn.nodemanager.aux-services</name>
			<value>mapreduce_shuffle</value>
        </property>

</configuration>

在/etc/profile 中添加hadoop环境变量

export HADOOP_HOME=/usr/hadoop/hadoop-2.2.0
export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

 格式化hdfs,hadoop  namenode -format 这个命令在hadoop2中已经过时了,格式化后会在hadoop-2.2.0/tmp目中生成一些文件

hdfs namenode -format

 启动hadoop使用,这是需要属于秘密,每启动一个进程都需要输入一次密码

sbin/start-dfs.sh
sbin/start-yarn.sh

 启动后查看进程

[root@centos1 sbin]# jps
5129 SecondaryNameNode
5522 NodeManager
5552 Jps
5251 ResourceManager
4890 NameNode
4972 DataNode

192.168.56.100:50070 查看Namenode,访问Browse the filesystem时通过主机名,需要配置hosts文件

192.168.56.100:8088 查看yarn

 配饰ssh免密码

#目录
/root/.ssh
#生成rsa密钥和公钥
ssh-keygen -t rsa
#生成的文件
-rw-------. 1 root root 1675 Sep 19 10:21 id_rsa
-rw-r--r--. 1 root root  394 Sep 19 10:21 id_rsa.pub
#copy公钥到认证文件中,文件名必须为 authorized_keys
cp id_rsa.pub authorized_keys
#
-rw-r--r--. 1 root root  394 Sep 19 10:24 authorized_keys
-rw-------. 1 root root 1675 Sep 19 10:21 id_rsa
-rw-r--r--. 1 root root  394 Sep 19 10:21 id_rsa.pub
#把本机的公钥copy给对方主机
ssh-copy-id 对方主机地址

相关推荐