Hadoop集群机器的hosts文件配置
Hosts文件配置,想必只要玩过Linux的人,都会配置,这个文件存在于/etc/hosts里,修改每个文件之前,大家记得养成一个好的习惯,做一个备份:
1:cd /etc
2: cp hosts hosts0319
3: vi hosts
在这个文件里,把所有对应的Hadoop集群服务器,对应的IP,Hostname都增加进去。我自己测试用的虚拟机的Host文件如下:
127.0.0.1 localhost.localdomain localhost
10.16.36.230 HadoopSrv01
10.16.36.231 HadoopSrv02
10.16.36.232 HadoopSrv03
当然在做以上配置之前,大家需要安装好服务器,服务器可以有三种选择:
1: 实体机,直接安装Linux.
2: 性能好的一台服务器上面,通过安装VM, 搭建虚拟机。
3:在一台性能一般的机器上通过搭建伪分布式来模拟测试。
具体硬件选型这块,回头再跟大家一起分享一下。 建议先搭建三个节点,每个节点有可能的话,内存配置到1-4G,硬盘100-500G,1颗2core的CPU,没有条件的话,
1G 内存,20G硬盘,1颗1核CPU 也可以,自己学习的环境 ,都无所谓。
另外还有一个很重要的步骤就是:
1: 一定要关闭防火墙。
2: Disabled Selinux.
以上两个操作,如果大家也不熟悉的话,请找度娘。
--------------------------------------分割线 --------------------------------------
--------------------------------------分割线 --------------------------------------