Hive使用
1、脚本化运行
大量的hive查询任务,如果用交互式shell来进行输入的话,显然效率及其低下,因此,生产中更多的是使用脚本化运行机制: 该机制的核心点是:hive可以用一次性命令的方式来执行给定的hql语句 hive -e "insert into table t_dest select * from t_src;" 然后,进一步,可以将上述命令写入shell脚本中,以便于脚本化运行hive任务,并控制、调度众多hive任务,示例如下: vi t_order_etl.sh #!/bin/bash hive -e "select * from db_order.t_order" hive -e "select * from default.t_user" hql="create table default.t_bash as select * from db_order.t_order" hive -e "$hql" 如果要执行的hql语句特别复杂,那么,可以把hql语句写入一个文件: vi x.hql select * from db_order.t_order; select count(1) from db_order.t_user; 然后,用hive -f /root/x.hql 来执行
2、建库
? 建库 hive中有一个默认的库: 库名: default 库目录:hdfs://hdp20-01:9000/user/hive/warehouse 新建库: create database db_order; 库建好后,在hdfs中会生成一个库目录: hdfs://hdp20-01:9000/user/hive/warehouse/db_order.db
3、建表
? 基本建表语句 use db_order; create table t_order(id string,create_time string,amount float,uid string); 表建好后,会在所属的库目录中生成一个表目录 /user/hive/warehouse/db_order.db/t_order 只是,这样建表的话,hive会认为表数据文件中的字段分隔符为 ^A 正确的建表语句为: create table t_order(id string,create_time string,amount float,uid string) row format delimited fields terminated by ‘,‘; 这样就指定了,我们的表数据文件中的字段分隔符为 "," ? 删除表 drop table t_order; 删除表的效果是: hive会从元数据库中清除关于这个表的信息; hive还会从hdfs中删除这个表的表目录; ? 内部表与外部表 内部表(MANAGED_TABLE):表目录按照hive的规范来部署,位于hive的仓库目录/user/hive/warehouse中 外部表(EXTERNAL_TABLE):表目录由建表用户自己指定 create external table t_access(ip string,url string,access_time string) row format delimited fields terminated by ‘,‘ location ‘/access/log‘; 外部表和内部表的特性差别: 1) 内部表的目录在hive的仓库目录中 VS 外部表的目录由用户指定 2) drop一个内部表时:hive会清除相关元数据,并删除表数据目录 3) drop一个外部表时:hive只会清除相关元数据; 一个hive的数据仓库,最底层的表,一定是来自于外部系统,为了不影响外部系统的工作逻辑,在hive中可建external表来映射这些外部系统产生的数据目录; 然后,后续的etl操作,产生的各种表建议用managed_table
4、建分区表
? 一个分区字段的实例: 示例如下: 1) 创建带分区的表 create table t_access(ip string,url string,access_time string) partitioned by(dt string) row format delimited fields terminated by ‘,‘; 注意:分区字段不能是表定义中的已存在字段 1) 向分区中导入数据 load data inpath ‘/root/access.log.2017-08-04.log‘ into table t_access partition(dt=‘20170804‘); load data inpath ‘/root/access.log.2017-08-05.log‘ into table t_access partition(dt=‘20170805‘); 1) 针对分区数据进行查询 a、统计8月4号的总PV: select count(*) from t_access where dt=‘20170804‘; 实质:就是将分区字段当成表字段来用,就可以使用where子句指定分区了 b、统计表中所有数据总的PV: select count(*) from t_access; 实质:不指定分区条件即可 ? 多个分区字段示例 建表: create table t_partition(id int,name string,age int) partitioned by(department string,sex string,howold int) row format delimited fields terminated by ‘,‘; 导数据: load data inpath ‘/root/p1.dat‘ into table t_partition partition(department=‘xiangsheng‘,sex=‘male‘,howold=20);
5、数据的导入导出
? 将数据文件导入hive的表方式1:导入数据的一种方式: 手动用hdfs命令,将文件放入表目录; 方式2:在hive的交互式shell中用hive命令来导入本地数据到表目录 hive>load data local inpath ‘/root/order.data.2‘ into table t_order; 方式3:用hive命令导入hdfs中的数据文件到表目录 hive>load data inpath ‘/access.log.2017-08-06.log‘ into table t_access partition(dt=‘20170806‘); 注意:导本地文件和导HDFS文件的区别: 本地文件导入表:复制 hdfs文件导入表:移动 ? 将hive表中的数据导出到指定路径的文件1) 将hive表中的数据导入HDFS的文件insert overwrite directory ‘/root/access-data‘row format delimited fields terminated by ‘,‘select * from t_access; 1) 将hive表中的数据导入本地磁盘文件insert overwrite local directory ‘/root/access-data‘row format delimited fields terminated by ‘,‘select * from t_access limit 100000; 6、hive文件格式 HIVE支持很多种文件格式: SEQUENCE FILE | TEXT FILE | PARQUET FILE | RC FILE create table t_pq(movie string,rate int) stored as textfile; create table t_pq(movie string,rate int) stored as sequencefile; create table t_pq(movie string,rate int) stored as parquetfile; 演示: 1、先建一个存储文本文件的表 create table t_access_text(ip string,url string,access_time string) row format delimited fields terminated by ‘,‘ stored as textfile; 导入文本数据到表中: load data local inpath ‘/root/access-data/000000_0‘ into table t_access_text; 2) 建一个存储sequence file文件的表: create table t_access_seq(ip string,url string,access_time string) stored as sequencefile; 从文本表中查询数据插入sequencefile表中,生成数据文件就是sequencefile格式的了: insert into t_access_seq select * from t_access_text; 2) 建一个存储parquet file文件的表: create table t_access_parq(ip string,url string,access_time string) stored as parquetfile;
相关推荐
zlsdmx 2020-07-05
taisenki 2020-06-02
zzjmay 2020-05-17
archive 2020-07-30
成长之路 2020-07-28
eternityzzy 2020-07-19
taisenki 2020-07-05
tugangkai 2020-07-05
SignalDu 2020-07-05
tomson 2020-07-05
tomson 2020-07-05
Zhangdragonfly 2020-06-28
genshengxiao 2020-06-26
成长之路 2020-06-26
tomson 2020-06-26
蜗牛之窝 2020-06-26