hive
vim/etc/profile
--------------------------------------------------
HIVE_HOME=/ddhome/bin/hive
HIVE_CONF_DIR=$HIVE_HOME/conf
PATH=$PATH:$HIVE_HOME/bin
source/etc/profile
#进入目录
cd$HIVE_CONF_DIR
#拷贝hive-default.xml.template并重命名为hive-site.xml
cphive-default.xml.templatehive-site.xml
#编辑hive-site.xml
vimhive-site.xml
vim$HIVE_CONF_DIR/hive-site.xml
<name>hive.metastore.warehouse.dir</name>
<value>/ddhome/bin/hive/warehouse</value>
<name>hive.exec.scratchdir</name>
<value>/ddhome/bin/hive/tmp</value>
<property>
<name>hive.downloaded.resources.dir</name>
<!--value>${system:java.io.tmpdir}/${hive.session.id}_resources</value-->
<value>/ddhome/bin/hive/tmp/${hive.session.id}_resources</value>
<description>Temporarylocaldirectoryforaddedresourcesintheremotefilesystem.</description>
</property>
<property>
<name>hive.server2.logging.operation.log.location</name>
<value>/ddhome/bin/hive/tmp/root/operation_logs</value>
<description>Topleveldirectorywhereoperationlogsarestoredifloggingfunctionalityisenabled</description>
</property>
<property>
<name>hive.exec.local.scratchdir</name>
<value>/ddhome/bin/hive/tmp/${user.name}</value>
<description>LocalscratchspaceforHivejobs</description>
</property
<property>
<name>hive.querylog.location</name>
<value>/ddhome/bin/hive/tmp/${user.name}</value>
<description>LocationofHiveruntimestructuredlogfile</description>
</property>
3.1.4.修改hive-site.xml数据库相关的配置
3.1.4.1.javax.jdo.option.ConnectionDriverName,将该name对应的value修改为MySQL驱动类路径:
<property
<name>javax.jdo.option.ConnectionDriverName</name
<value>com.mysql.jdbc.Driver</value>
</property>
3.1.4.2.javax.jdo.option.ConnectionURL,将该name对应的value修改为MySQL的地址:
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.55.91:3306/hive?createDatabaseIfNotExist=true&useSSL=false</value>
3.1.4.3.javax.jdo.option.ConnectionUserName,将对应的value修改为MySQL数据库登录名:
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
3.1.4.4.javax.jdo.option.ConnectionPassword,将对应的value修改为MySQL数据库的登录密码:
<name>javax.jdo.option.ConnectionPassword</name><value>dd@2018</value>
3.1.4.5.将MySQL驱动包上载到Hive的lib目录下
scpmysql-connector-java-5.1.36.jar$HIVE_HOME/lib/
3.2.新建hive-env.sh文件并进行修改
cd$HIVE_CONF_DIR
cphive-env.sh.templatehive-env.sh#基于模板创建hive-env.sh
vimhive-env.sh#编辑配置文件并加入以下配置:
-------------------------------------------------
exportHADOOP_HOME=/ddhome/bin/hadoop
exportHIVE_CONF_DIR=/ddhome/bin/hive/conf
exportHIVE_AUX_JARS_PATH=/ddhome/bin/hive/lib
--------------------------------------------------
4.启动和测试
有关安装与配置MySQL数据库请参考文章:CentOS7.0安装配置MySQL5.7
4.1.对MySQL数据库初始化
#进入到hive的bin目录
cd$HIVE_HOME/bin
#对数据库进行初始化
schematool-initSchema-dbTypemysql
执行成功后,在mysql的hive数据库里已生成metadata数据表:
cd$HADOOP_HOME/bin/#进入Hadoop主目录
hadoopfs-mkdir-p/ddhome/bin/hive/warehouse#创建目录
hadoopfs-chmod-R777/ddhome/bin/hive/warehouse#新建的目录赋予读写权限
hadoopfs-mkdir-p/ddhome/bin/hive/#新建/ddhome/bin/hive/目录
hadoopfs-chmod-R777/ddhome/bin/hive#目录赋予读写权限
#用以下命令检查目录是否创建成功
hadoopfs-ls/ddhome/bin/hive
hadoopfs-ls/ddhome/bin/hive/tmp
cd$HIVE_HOME
mkdirtmp
chmod-R777tmp/
CREATETABLEIFNOTEXISTS`huayun.task`(
`id`INTCOMMENT'任务扩展子表ID',
`pid`INTCOMMENT'任务ID',
`car_series`INTCOMMENT'车系ID',
`series_name`STRINGCOMMENT'车系名称',
`purchase_amount`INTCOMMENT'购买数量',
`price`DOUBLECOMMENT'最新投放单价',
`published_price`DOUBLECOMMENT'刊例价',
`state`TINYINTCOMMENT'状态0正常2删除',
`create_time`STRINGCOMMENT'创建时间',
`edit_time`STRINGCOMMENT'修改时间',
`snap_time`STRINGCOMMENT'快照时间'
)
COMMENT'任务子表天快照表'
PARTITIONEDBY(`dt`STRING)
ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'STOREDASTEXTFILE;
CREATETABLEIFNOTEXISTShuayun.employee(idint,nameString,
salaryString,destinationString)
COMMENT'Employeedetails'
ROWFORMATDELIMITED
FIELDSTERMINATEDBY';'
LINESTERMINATEDBY'\n'
STOREDASTEXTFILE;
LOADDATA[LOCAL]INPATH'filepath'[OVERWRITE]INTOTABLEtablename
[PARTITION(partcol1=val1,partcol2=val2...)]
/ddhome/tmp/employee.txt
1201;Gopal;45000;Technicalmanager
1202;Manisha;45000;Proofreader
1203;Masthanvali;40000;Technicalwriter
1204;Kiran;40000;HrAdmin
1205;Kranthi;30000;OpAdmin
LOADDATALOCALINPATH'/ddhome/tmp/employees.txt'OVERWRITEINTOTABLEemployees;
yuminstall-ygcclibxml2-devellibxslt-develcyrus-sasl-develpython-develpython-setuptoolspython-simplejsonsqlite-develantgmp-develcyrus-sasl-plaincyrus-sasl-develcyrus-sasl-gssapilibffi-developenldap-devel
安装
构建
http://cloudera.github.io/hue/docs-4.0.0/manual.html#_install_hue
http://gethue.com/
通过如下命令来指定HUE的安装路径
$PREFIX=/usr/sharemakeinstall
$cd/usr/share/hue
如果想把HUE从一个地方移动到另外一个地方,由于HUE使用了Python包的一些绝对路径,移动之后则必须执行以下命令
$rmapp.reg
$rm-rbuild
$makeapps
配置
Hadoop的配置文件
位于/etc/hadoop/conf
hdfs-site.xml
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
core-site.xml
<property>
<name>hadoop.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hue.groups</name>
<value>*</value>
</property>
httpfs-site.xml
<property>
<name>httpfs.proxyuser.hue.hosts</name>
<value>*</value>
</property>
<property>
<name>httpfs.proxyuser.hue.groups</name>
<value>*</value>
</property>
HUE配置
查看所有可用的配置选项
$cdbuild/env/bin
$./hueconfig_help|less
进入HUE配置目录
$cdhue/desktop/conf
复制一份HUE的配置文件并修改复制的配置文件
$cppseudo-distributed.ini.tmplpseudo-distributed.ini
$vipseudo-distributed.ini
在第42行左右.将时区修改一下
time_zone=Asia/Shanghai
密钥
secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW#30-60个字符
Hadoop配置文件的路径
HADOOP_CONF_DIR=/ddhome/bin/hadoop/etc/hadoop
在[beeswax]配置文件的部分,可以指定以下内容:
beeswax_server_host
Hive服务器应绑定到的主机名或IP。默认情况下,它绑定到localhost,因此仅为本地IPC客户端提供服务。
hive_home_dir
Hive安装的基本目录。
hive_conf_dir
hive配置文件的路径
server_user=hadoop
server_group=hadoop
default_user=hadoop
default_hdfs_superuser=hadoop
由于我的用户是hadoop所以这里是hadoop各位按照自己的情况填写
[librdbms]
可以设置关系型数据库的的一些信息
启动
输入如下命令启动HUE
~/hue/build/env/bin/supervisorstart
启动一个broser,HUE默认的端口号为8000
localhost:8000