Hive自定义函数之UDF

 为了满足用户的个性化需求,Hive被设计成了一个很开放的系统,很多内容都可以定制,主要包括: 
                1)、文件格式; 
                2)、内存中的数据格式,如Hadoop的Writable/Text; 
                3)、用户提供的MapReduce脚本,不管使用何种语言都可以通过标准的stdin/stdout传输数据; 
                4)、用户自定义函数。 
        本节我们主要学习用户自定义函数。虽然Hive已经提供了很多内存的函数,但是还是不能,满足用户的需求,因此有提供了自定义函数供用户自己开发函数来满足自己的需求。之定义函数主要分三类: 
                1)、UDF(User-Defined-Function)用户自定义函数,输入一个数据然后产生一个数据; 
                2)、UDAF(User-Defined Aggregation Function)用户自定义聚合函数,多个输入数据然后产生一个输出参数; 
                3)、UDTF(User-Defined Table-generating Function)用户自定义表生成函,数,输入一行数据生成N行数据。 
   
        UDF 
        现在我们开始学习如何来开发自己的UDF函数。假设我们现在有一个被保存在littlebigdata.txt文件中的数据集:

edward capriolo,[email protected],2-12-1981,209.191.139.200,M,10  
bob,[email protected],10-10-2004,10.10.10.1,M,50  
sara connor,[email protected],4-5-1974,64.64.5.1,F,2  
...  


        接下来我们顶一个Hive加载这个数据集:

hive> CREATE TABLE IF NOT EXISTS littlebigdata(  
    >   name        STRING COMMENT '姓名',  
    >   email       STRING COMMENT '邮箱',  
    >   birthday    STRING COMMENT '生日',  
    >   ip          STRING COMMENT 'ip',  
    >   gender      STRING COMMENT '性别',  
    >   anum        INT)  
    > ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';  
  
hive> LOAD DATA LOCAL INPATH '${env:HOME}/littlebigdata.txt'  
    > INTO TABLE littlebigdata;  


        我们接下来会写一个自定义的UDF根据数据集中的生日计算对应星座,首先新类要继承org.apache.hadoop.hive.ql.exec.UDF类,然而UDF类并不是一个抽象类,其中并没有用户自定义函数必须的evaluate()方法,子类必须实现一个或多个evaluate方法给Hive框架调用,这个evaluate方法正是所有实现类的逻辑部分所在,只有用户自己来写方法了:

package org.apache.hadoop.hive.contrib.udf.example;  
  
import java.text.SimpleDateFormat;  
import java.util.Date;  
import org.apache.hadoop.hive.ql.exec.UDF;  
import org.apache.hadoop.hive.ql.exec.Description;  
  
@Description(name = "Zodiac",  
   value = "FUNC_(date) - from the input data string " +  
           "or separate month and day arguments,return the sign of the Zodiac.",  
   extended = "Example:\n >SELECT _FUNC_(date_string) FROM src;\n" +   
              " > SELECT _FUNC_(month,day) FROM src;")  
public class ZodiacSignUDF extends UDF{  
     private SimpleDateFormat df = null;  
  
     /** 
      * 在默认构造函数中初始化df 
      */  
     public ZodiacSignUDF(){  
         df = new SimpleDateFormat("MM-dd-yyyy");  
     }  
   
     /** 
      * 由出生日期获取星座 
      * @param birthday -Date 
      * @return 
      */  
     public String evaluate(Date birthday){  
         return this.evaluate(birthday.getMonth() + 1,birthday.getDay());  
     }  
  
     /** 
      * 由出生日期获取星座 
      * @param birthday -String 
      * @return 
      */  
     public String evaluate(Date birthday){  
         Date date = null;  
         try{  
            date = df.parse(birthday);  
         }catch(Excetion e){  
             //如果日期转换失败,就表明星座是未知的  
             return null;  
         }  
         return this.evaluate(date.getMonth() + 1,date.getDay());  
     }  
       
     /** 
      * 由月份和出生日获取星座 
      * @param month -int 
      * @param day -int 
      * @return 
      */  
     public String evaluate(Integer month,Integer day){  
         if(month == 1){  
            if(day < 20){  
               return "Capricorn";  
            }else{  
               return "Aquarius";  
            }  
         }else if(month == 2){  
            if(day < 19){  
               return "Aquarius";  
            }else{  
               return "Pisces";  
            }  
         }  
         /** ... other months here */  
         return null;  
     }  
}  


        在HiveQL的执行中,没处理一行都会调用一次ZodiacSignUDF类的实例,然后将每一行的出生一起传给evaluate()方法并得到对应的星座返回给Hive。 

        那么接下来的问题是如何使用这个自定义函数呢? 
        首先需要用户便以这个类并将之打成一个jar包,然后将jar文件添加到Hive的classpath并使用CREATE FUNCTION语句将之定义为一个Hive能使用的方法:

hive> ADD JAR /full/path/to/zodiac.jar;  
hive> CREATE TEMPORARY FUNCTION zodiac   
      AS 'org.apache.hadoop.hive.contrib.udf.exampl.ZodiacSignUDF';             


        当然,上面的函数添加方法只能在Hive session会话期间使用,session结束后如还想使用该函数,那就必须再将上面的两部操作做一遍。如果这个函数是经常使用的,那么这么做就太繁琐了,这种情况下可以把上面的两操作语句添加到$HOME/.hiverc文件中作为全局函数,就想使用hive的内置行是一样:

hive> SELECT name,birthday,zodiac(birthday) FROM littlebigdata;  
edward capriolo 2-12-1981   Aquarius  
bob             10-10-2004  Libra  
sara            4-5-1974    Aries  



        接着我们来看怎么删除一个·自定义函数:

Java代码  Hive自定义函数之UDF
 
 
hive> DROP TEMPORARY FUNCTION IF EXISTS zodiac;  
转自:http://flyingdutchman.iteye.com/blog/1871326
 

HIVE如何使用自定义函数

 
如何在HIVE中使用自己定义的函数,可以有几种方式:
1.在HIVE会话中add 自定义函数的jar文件,然后创建function,继而使用函数
2.在进入HIVE会话之前先自动执行创建function,不用用户手工创建
3.把自定义的函数写到系统函数中,使之成为HIVE的一个默认函数,这样就不需要create temporary function

1.在HIVE会话中add 自定义函数的jar文件,然后创建function,继而使用函数
hive> ADD JAR /home/hugh.wangp/UDFMd5.jar;
Added /home/hugh.wangp/UDFMd5.jar to class path
hive> CREATE TEMPORARY FUNCTION udfmd5 AS 'udf.UDFMd5';
OK
Time taken: 0.014 seconds
hive> select udfmd5('a') from dual;
OK
0cc175b9c0f1b6a831c399e269772661

这种方式的弊端是:每次打开新的会话,就要重新执行一遍如上的add jar和create temporary function的命令。对普通的业务分析人员未免要求太高。第二种方法可以把业务人员释放出来


2.在进入HIVE会话之前先自动执行创建function
HIVE命令有个参数-i:在进入会话,待用户输入自己的HQL之前,先执行-i的参数。我们只需要把add jar和create temporary function的命令写到一个文件中,并把这个文件传到-i的参数,如此一来省去了每次要手工创建的工作。
但是这种方式也有个弊端,当我增添HIVE的gateway,就要拷贝一份这个文件,有时候遗漏真是不可避免的。第三种方法应该就是一个终极方案,只要HIVE本身代码不做修改,或者不删除特定的功能,这个函数就能一直用,而且可以把他作为HIVE的默认函数那样使用

3.把自定义的函数写到系统函数中,使之成为HIVE的一个默认函数
a.编写自己的UDF/UDAF/UDTF(如何编写可参考:http://hugh-wangp.iteye.com/blog/1472371),并把代码放到$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/udf/路径下
b.修改$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/exec/FunctionRegistry.java
以HIVE自带函数Trim()举例,自定义函数操作一样。
第一步:
写UDF代码UDFTrim.java并放到$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/udf/UDFTrim.java
第二步:
修改$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/exec/FunctionRegistry.java文件
a.import org.apache.hadoop.hive.ql.udf.UDFTrim;
b.registerUDF("trim", UDFTrim.class, false);

虽然这种方法是一劳永逸的方法,但是一旦错了,对整个HIVE使用都是灾难性的,所以不是特别通用的自定义函数还是采用前两种,一旦通用的自定义函数累计到一定程度,再去采用第三种方法。

转自:http://www.cnblogs.com/tangtianfly/archive/2012/11/06/2756745.html

相关推荐