Hbase存储数据,由于现在的hadoop

Hbase存储数据,由于现在的hadoop
的集群是基于hadoop2.2.0的,本次搭建Hbase集群,是基于底层依赖Hadoop2.2.0的,具体的情况描述如下:


序号机器IP角色1192.168.46.32Master2192.168.46.11Slave13192.168.46.10Slave2



本次的集群,散仙使用的是Hbase内置的zk,建议生产环境使用外置的zk集群,具体的配置步骤如下:

序号描述1Ant,Maven,JDK环境2配置各个机器之间SSH无密码登陆认证3配置底层Hadoop2.2.0的集群,注意需要编译64位的4下载Hbase0.96,无须编译,解压5进入hbase的conf下,配置hbase-env.sh文件6配置conf下的hbase-site.xml文件7配置conf下的regionservers文件8配置完成后,分发到各个节点上9先启动Hadoop集群,确定hadoop集群正常10启动Hbase集群11访问Hbase的60010的web界面,查看是否正常12使用命令bin/hbase shell进入hbase的shell终端,测试13配置Windows下的本地hosts映射(如需在win上查看Hbase)14屌丝软件工程师一名





hbase-env.sh里面的配置如下,需要配置的地方主要有JDK环境变量的设置,和启动Hbase自带的zk管理:

h1  
h2  
h3  
h1
h2
h3


启动后的在Master上进程如下所示:

1580 SecondaryNameNode  
1289 NameNode  
2662 HMaster  
2798 HRegionServer  
1850 NodeManager  
3414 Jps  
2569 HQuorumPeer  
1743 ResourceManager  
1394 DataNode  
1580 SecondaryNameNode
1289 NameNode
2662 HMaster
2798 HRegionServer
1850 NodeManager
3414 Jps
2569 HQuorumPeer
1743 ResourceManager
1394 DataNode


关闭防火墙后,在win上访问Hbase的60010端口,如下所示:


Hbase存储数据,由于现在的hadoop
在linu的shell客户端里访问hbase的shell如下所示:

Hbase存储数据,由于现在的hadoop



至此,我们的Hbase集群就搭建完毕,下一步我们就可以使用Hbase的shell命令,来测试Hbase的增删改查了,当然我们也可以使用Java API来和Hbase交互,下一篇散仙会给出Java API操作Hbase的一些通用代码。

相关推荐