Hive自定义函数之UDF

 为了满足用户的个性化需求,Hive被设计成了一个很开放的系统,很多内容都可以定制,主要包括: 
                1)、文件格式; 
                2)、内存中的数据格式,如Hadoop的Writable/Text; 
                3)、用户提供的MapReduce脚本,不管使用何种语言都可以通过标准的stdin/stdout传输数据; 
                4)、用户自定义函数。 
        本节我们主要学习用户自定义函数。虽然Hive已经提供了很多内存的函数,但是还是不能,满足用户的需求,因此有提供了自定义函数供用户自己开发函数来满足自己的需求。之定义函数主要分三类: 
                1)、UDF(User-Defined-Function)用户自定义函数,输入一个数据然后产生一个数据; 
                2)、UDAF(User-Defined Aggregation Function)用户自定义聚合函数,多个输入数据然后产生一个输出参数; 
                3)、UDTF(User-Defined Table-generating Function)用户自定义表生成函,数,输入一行数据生成N行数据。 
   
        UDF 
        现在我们开始学习如何来开发自己的UDF函数。假设我们现在有一个被保存在littlebigdata.txt文件中的数据集:

Java代码   收藏代码
  1. edward capriolo,edward@media6degrees.com,2-12-1981,209.191.139.200,M,10  
  2. bob,bob@test.net,10-10-2004,10.10.10.1,M,50  
  3. sara connor,sara@sky.net,4-5-1974,64.64.5.1,F,2  
  4. ...  


        接下来我们顶一个Hive加载这个数据集:

Java代码   收藏代码
  1. hive> CREATE TABLE IF NOT EXISTS littlebigdata(  
  2.     >   name        STRING COMMENT '姓名',  
  3.     >   email       STRING COMMENT '邮箱',  
  4.     >   birthday    STRING COMMENT '生日',  
  5.     >   ip          STRING COMMENT 'ip',  
  6.     >   gender      STRING COMMENT '性别',  
  7.     >   anum        INT)  
  8.     > ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';  
  9.   
  10. hive> LOAD DATA LOCAL INPATH '${env:HOME}/littlebigdata.txt'  
  11.     > INTO TABLE littlebigdata;  


        我们接下来会写一个自定义的UDF根据数据集中的生日计算对应星座,首先新类要继承org.apache.hadoop.hive.ql.exec.UDF类,然而UDF类并不是一个抽象类,其中并没有用户自定义函数必须的evaluate()方法,子类必须实现一个或多个evaluate方法给Hive框架调用,这个evaluate方法正是所有实现类的逻辑部分所在,只有用户自己来写方法了:

Java代码   收藏代码
  1. package org.apache.hadoop.hive.contrib.udf.example;  
  2.   
  3. import java.text.SimpleDateFormat;  
  4. import java.util.Date;  
  5. import org.apache.hadoop.hive.ql.exec.UDF;  
  6. import org.apache.hadoop.hive.ql.exec.Description;  
  7.   
  8. @Description(name = "Zodiac",  
  9.    value = "FUNC_(date) - from the input data string " +  
  10.            "or separate month and day arguments,return the sign of the Zodiac.",  
  11.    extended = "Example:\n >SELECT _FUNC_(date_string) FROM src;\n" +   
  12.               " > SELECT _FUNC_(month,day) FROM src;")  
  13. public class ZodiacSignUDF extends UDF{  
  14.      private SimpleDateFormat df = null;  
  15.   
  16.      /** 
  17.       * 在默认构造函数中初始化df 
  18.       */  
  19.      public ZodiacSignUDF(){  
  20.          df = new SimpleDateFormat("MM-dd-yyyy");  
  21.      }  
  22.    
  23.      /** 
  24.       * 由出生日期获取星座 
  25.       * @param birthday -Date 
  26.       * @return 
  27.       */  
  28.      public String evaluate(Date birthday){  
  29.          return this.evaluate(birthday.getMonth() + 1,birthday.getDay());  
  30.      }  
  31.   
  32.      /** 
  33.       * 由出生日期获取星座 
  34.       * @param birthday -String 
  35.       * @return 
  36.       */  
  37.      public String evaluate(Date birthday){  
  38.          Date date = null;  
  39.          try{  
  40.             date = df.parse(birthday);  
  41.          }catch(Excetion e){  
  42.              //如果日期转换失败,就表明星座是未知的  
  43.              return null;  
  44.          }  
  45.          return this.evaluate(date.getMonth() + 1,date.getDay());  
  46.      }  
  47.        
  48.      /** 
  49.       * 由月份和出生日获取星座 
  50.       * @param month -int 
  51.       * @param day -int 
  52.       * @return 
  53.       */  
  54.      public String evaluate(Integer month,Integer day){  
  55.          if(month == 1){  
  56.             if(day < 20){  
  57.                return "Capricorn";  
  58.             }else{  
  59.                return "Aquarius";  
  60.             }  
  61.          }else if(month == 2){  
  62.             if(day < 19){  
  63.                return "Aquarius";  
  64.             }else{  
  65.                return "Pisces";  
  66.             }  
  67.          }  
  68.          /** ... other months here */  
  69.          return null;  
  70.      }  
  71. }  


        在HiveQL的执行中,没处理一行都会调用一次ZodiacSignUDF类的实例,然后将每一行的出生一起传给evaluate()方法并得到对应的星座返回给Hive。 

        那么接下来的问题是如何使用这个自定义函数呢? 
        首先需要用户便以这个类并将之打成一个jar包,然后将jar文件添加到Hive的classpath并使用CREATE FUNCTION语句将之定义为一个Hive能使用的方法:

Java代码   收藏代码
  1. hive> ADD JAR /full/path/to/zodiac.jar;  
  2. hive> CREATE TEMPORARY FUNCTION zodiac   
  3.       AS 'org.apache.hadoop.hive.contrib.udf.exampl.ZodiacSignUDF';             


        当然,上面的函数添加方法只能在Hive session会话期间使用,session结束后如还想使用该函数,那就必须再将上面的两部操作做一遍。如果这个函数是经常使用的,那么这么做就太繁琐了,这种情况下可以把上面的两操作语句添加到$HOME/.hiverc文件中作为全局函数,就想使用hive的内置行是一样:

Java代码   收藏代码
  1. hive> SELECT name,birthday,zodiac(birthday) FROM littlebigdata;  
  2. edward capriolo 2-12-1981   Aquarius  
  3. bob             10-10-2004  Libra  
  4. sara            4-5-1974    Aries  



        接着我们来看怎么删除一个·自定义函数:

Java代码   收藏代码
 
 
hive> DROP TEMPORARY FUNCTION IF EXISTS zodiac;  
 

HIVE如何使用自定义函数

HIVE提供了很多函数,但这些函数只能满足一般的需求,针对复杂的业务分析,需要自己开发适合业务需求的函数。如何开发HIVE的UDF/UDAF/UDTF,请参看如下博客介绍的自定义函数的模板: http://hugh-wangp.iteye.com/blog/1472371

 
如何在HIVE中使用自己定义的函数,可以有几种方式:
1.在HIVE会话中add 自定义函数的jar文件,然后创建function,继而使用函数
2.在进入HIVE会话之前先自动执行创建function,不用用户手工创建
3.把自定义的函数写到系统函数中,使之成为HIVE的一个默认函数,这样就不需要create temporary function

1.在HIVE会话中add 自定义函数的jar文件,然后创建function,继而使用函数
hive> ADD JAR /home/hugh.wangp/UDFMd5.jar;
Added /home/hugh.wangp/UDFMd5.jar to class path
hive> CREATE TEMPORARY FUNCTION udfmd5 AS 'udf.UDFMd5';
OK
Time taken: 0.014 seconds
hive> select udfmd5('a') from dual;
OK
0cc175b9c0f1b6a831c399e269772661

这种方式的弊端是:每次打开新的会话,就要重新执行一遍如上的add jar和create temporary function的命令。对普通的业务分析人员未免要求太高。第二种方法可以把业务人员释放出来


2.在进入HIVE会话之前先自动执行创建function
HIVE命令有个参数-i:在进入会话,待用户输入自己的HQL之前,先执行-i的参数。我们只需要把add jar和create temporary function的命令写到一个文件中,并把这个文件传到-i的参数,如此一来省去了每次要手工创建的工作。
但是这种方式也有个弊端,当我增添HIVE的gateway,就要拷贝一份这个文件,有时候遗漏真是不可避免的。第三种方法应该就是一个终极方案,只要HIVE本身代码不做修改,或者不删除特定的功能,这个函数就能一直用,而且可以把他作为HIVE的默认函数那样使用

3.把自定义的函数写到系统函数中,使之成为HIVE的一个默认函数
a.编写自己的UDF/UDAF/UDTF(如何编写可参考:http://hugh-wangp.iteye.com/blog/1472371),并把代码放到$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/udf/路径下
b.修改$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/exec/FunctionRegistry.java
以HIVE自带函数Trim()举例,自定义函数操作一样。
第一步:
写UDF代码UDFTrim.java并放到$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/udf/UDFTrim.java
第二步:
修改$HIVE_HOME/src/ql/src/java/org/apache/hadoop/hive/ql/exec/FunctionRegistry.java文件
a.import org.apache.hadoop.hive.ql.udf.UDFTrim;
b.registerUDF("trim", UDFTrim.class, false);

虽然这种方法是一劳永逸的方法,但是一旦错了,对整个HIVE使用都是灾难性的,所以不是特别通用的自定义函数还是采用前两种,一旦通用的自定义函数累计到一定程度,再去采用第三种方法。

 

转自:http://www.cnblogs.com/tangtianfly/archive/2012/11/06/2756745.html

猜你喜欢

转载自kavy.iteye.com/blog/2099978
今日推荐