Hive安装配置
1.Hive安装
Hive的安装配置比较简单。首先,确定HDFS和MapReduce已经正确安装并且可以运行。
首先,到Apache下载Hive,本次安装使用的Hive版本为hive-0.9.0。下载完成后,将hive解压到你想安装的目录。
tar zxf hive-0.9.0.tar.gz
解压缩完成后,配置Hive环境变量,在这里是在/etc/profile中实现的。
export HIVE_INSTALL=/usr/hive-0.9.0
export PATH=$PATH:$HIVE_INSTALL/bin
2.Hive本地模式运行
Hive安装完成后,可以不用进行任何配置,直接以本地模式进行运行。在这种模式下,Hive将数据仓库文件保存在本地文件系统;metastore保存在Hive自带的嵌入式数据库Derby中。
3.Hive与Hadoop结合
要想Hive使用HDFS进行数据仓库的存储,使用MapReduce进行HQL语言的执行,我们需要进行相应的配置。首先,需要创建Hive的配置文件hive-site.xml(注意,Hive安装包中包含一个配置文件模板-hive-default.xml.template)。我们可以将hive-default.xml.template重命名为hive-site.xml,并在其中添加下面两行:其中斜杠部分为HDFS根目录和JobTracker的机器名和端口。
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
配置完成后,在运行Hive时候可以显示指定Hive配置文件的位置:
hive --config /root/etc/hive(注:/root/etc/hive是指hive-site.xml的存放目录)