Hbase存储数据,由于现在的hadoop
Hbase存储数据,由于现在的hadoop
的集群是基于hadoop2.2.0的,本次搭建Hbase集群,是基于底层依赖Hadoop2.2.0的,具体的情况描述如下:
序号 | 机器IP | 角色 | 1 | 192.168.46.32 | Master | 2 | 192.168.46.11 | Slave1 | 3 | 192.168.46.10 | Slave2 |
本次的集群,散仙使用的是Hbase内置的zk,建议生产环境使用外置的zk集群,具体的配置步骤如下:
序号 | 描述 | 1 | Ant,Maven,JDK环境 | 2 | 配置各个机器之间SSH无密码登陆认证 | 3 | 配置底层Hadoop2.2.0的集群,注意需要编译64位的 | 4 | 下载Hbase0.96,无须编译,解压 | 5 | 进入hbase的conf下,配置hbase-env.sh文件 | 6 | 配置conf下的hbase-site.xml文件 | 7 | 配置conf下的regionservers文件 | 8 | 配置完成后,分发到各个节点上 | 9 | 先启动Hadoop集群,确定hadoop集群正常 | 10 | 启动Hbase集群 | 11 | 访问Hbase的60010的web界面,查看是否正常 | 12 | 使用命令bin/hbase shell进入hbase的shell终端,测试 | 13 | 配置Windows下的本地hosts映射(如需在win上查看Hbase) | 14 | 屌丝软件工程师一名 |
hbase-env.sh里面的配置如下,需要配置的地方主要有JDK环境变量的设置,和启动Hbase自带的zk管理:
h1 h2 h3
h1 h2 h3
启动后的在Master上进程如下所示:
1580 SecondaryNameNode 1289 NameNode 2662 HMaster 2798 HRegionServer 1850 NodeManager 3414 Jps 2569 HQuorumPeer 1743 ResourceManager 1394 DataNode
1580 SecondaryNameNode 1289 NameNode 2662 HMaster 2798 HRegionServer 1850 NodeManager 3414 Jps 2569 HQuorumPeer 1743 ResourceManager 1394 DataNode
关闭防火墙后,在win上访问Hbase的60010端口,如下所示:
在linu的shell客户端里访问hbase的shell如下所示:
至此,我们的Hbase集群就搭建完毕,下一步我们就可以使用Hbase的shell命令,来测试Hbase的增删改查了,当然我们也可以使用Java API来和Hbase交互,下一篇散仙会给出Java API操作Hbase的一些通用代码。
相关推荐
eternityzzy 2020-07-19
鲸鱼写程序 2020-06-08
strongyoung 2020-06-04
WeiHHH 2020-05-30
晨曦之星 2020-08-14
lwb 2020-07-26
大而话之BigData 2020-06-16
ITwangnengjie 2020-06-14
gengwx00 2020-06-11
大而话之BigData 2020-06-10
needyit 2020-06-04
ITwangnengjie 2020-05-09
gengwx00 2020-05-08
gengwx00 2020-05-09
大而话之BigData 2020-05-06
Buerzhu 2020-05-01
gengwx00 2020-04-30