Hadoop的安装配置
一、安装CentOS
过程略
下载地址:链接:https://pan.baidu.com/s/1nursRf23DjI5ynmuVvUYuw
提取码:76xk
二、配置CentOS网络设置
1.进入网络配置
cd /etc/sysconfig/network-scripts
2.打开ens33配置
vi ifcfg-ens33
3.编辑配置
将BOOTPROTO改为static静态
添加IPADDRIP地址
添加NETMASK子网掩码
添加GATEWAY网关地址
添加DNS1,DNS2域名解析地址
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
name="ens33"
IPADDR="192.168.100.2"
NETMASK="255.255.255.0"
GATEWAY="192.168.100.1"
DNS1="8.8.8.8"
UUid="9b660db5-cd4d-4c05-94eb-21d017e078d8"
DEVICE="ens33"
ONBOOT="yes"
三、配置安全相关
1.关闭防火墙
systemctl status firewalld 查看防火墙状态
systemctl start firewalld 打开防火墙
systemctl stop firewalld 关闭防火墙
systemctl disabled firewalld 关闭开机自动启动
systemctl enabled firewalld 开启开机自动启动
2.关闭selinux
getenfore 查看selinux状态
setenforce 临时关闭
永久关闭方法
vi /etc/selinux/config
将SELINUX=enforcing改为SELINUX=disabled
3.关闭NetWorkManager
systemctl status NetworkManager 查看网络管理器状态
systemctl start NetworkManager 打开网络管理器
systemctl stop NetworkManager 关闭网络管理器
systemctl disabled NetworkManager 关闭开机自动启动
systemctl enabled NetworkManager 开启开机自动启动
四、安装常用软件
1.配置yum源
1. yum install -y wget 安装wget软件
2. 备份 mv /etc/yum.repos.d/CentOS-Base.repo/etc/yum.repos.d/CentOS-Base.repo.backup
3.下载新的yum源
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
4. 运行 yum makecache 生成缓存
2.下载常用软件
1.安装net-tools yum install net-tools
2.安装vim yum install vim
3.安装jdk
1.下载jdk压缩包 存放在 /opt/install
2.解压到/opt/software/jdk1.8
3.配置环境变量 vim /etc/profile
export JAVA_HOME=/opt/soft/jdk1.8
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=.:$JAVA_HOME/bin
source /etc/profile
4.java -verion 查看jdk版本,有版本显示则安装成功
4.安装Hadoop
修改主机名
vim /etc/hostname #编辑主机名文件
hdp01
修改主机映射
vim /etc/hosts #编辑主机映射文件
192.168.100.2 hadoop101
下载并上传Hadoop2.7.7
下载Hadoop压缩包 存放在 /opt/install
解压到/opt/software/hadoop2.7.7
配置环境变量
vim /etc/profile #编辑环境变量
JAVA_HOME=/opt/software/jdk1.8
HADOOP_HOME=opt/software/hadoop-2.7.7
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin;$HADOOP_HOME/sbin
source /etc/profile #使环境变量生效
修改配置文件 6个
hadoop-env.sh
cd /opt/software/hadoop-2.7.7 #进入hadoop-2.7.7目录
vim etc/hadoop/hadoop-env.sh #编辑配置文件hadoop-env.sh
export JAVA_HOME=/opt/software/jdk1.8 #修改25行
export HADOOP_CONF_DIR=/opt/software/hadoop-2.7.7/etc/hadoop #修改33行
core-site.xml
<configuration>
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/software/hadoop-2.7.7/tmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
mapred-site.xml
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
yarn-site.xml
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hdp01</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
slaves
hdp01
格式化文件系统
hadoop namenode -format
启动Hadoop
start-all.sh
验证是否启动成功
jps //java 守护进程 有以下5个则启动成功
WEB端查看
http://hdp01:50070 #查看NameNode的状态
http://hdp01:50075 #查看DataNode的状态
http://hdp01:50090 #查看SecondaryNameNode的状态