Hive Hive 操作数据库语句总结

Hive查询

1、hive模糊搜索表
show tables like '*name*';
2、查看表结构信息
desc formatted tablename;
desc table_name
3、查看分区信息
show partitions tablename;
4、根据分区查询数据
select table_coulm from tablename where partitionname = '2016-02-25';
5、 删除分区
alter table test drop partition(dt='2016-03-01');
alter table  test drop partition(dt='2016-01-17')
6、 杀死某个任务  不在hive shell中执行
Hadoop job -kill job_201403041453_58315
7、 hive命令行操作
执行一个查询,在终端上显示mapreduce的进度,执行完毕后,最后把查询结果输出到终端上,接着hive进程退出,不会进入交互模式。
hive -e 'select table_cloum from table'
-S,终端上的输出不会有mapreduce的进度,执行完毕,只会把查询结果输出到终端上。这个静音模式很实用,,通过第三方程序调用,第三方程序通过hive的标准输出获取结果集。
hive -S -e 'select tablecloum from table'
执行sql文件
hive -f hive_sql.sql
8、查看文件大小及删除文件
Hive>dfs –du /xx/xx
Hive>dfs –rmr /xx/xx
9、mapjoin的使用 应用场景:1.关联操作中有一张表非常小 2、不等值的链接操作
select /*+ mapjoin(A)*/ f.a,f.b from A t join B f  on ( f.a=t.a and f.ftime=20110802) 
10、hive开启简单模式不启用mr
set hive.fetch.task.conversion=more;
11、hive修改表名
ALTER TABLE oldtablename RENAME TO newtablename;
12、 hive添加字段
alter table temp add columns(current_session_timelenth_count bigint comment '页面停留总时长');
ALTER temp CHANGE current_session_timelenth current_session_timelenth bigint comment '当前会话停留时间';
------------------------------------------------------------------------------------------ 
Hive支持大量SQL数据定义语言(Data Manipulation Language,DML)中的现有功能,包括以下各种语句:
使用where条件过滤表的行
使用列或子查询的select表达式
使用等值连接,连接多张表
合并表的所有行或子查询
针对多个“分组”的列进行聚合计算
将查询结果存入另一张表
导出表中的内容到本地目录或HDFS目录中
以下参考自点击打开链接
1、只查询前两条:
select  * from  student  limit  2 ;
2、统计一个表的行数:
select  count(*)  from student ;
3、求一个表id字段的id 之和:
select  sum(id)  from  student ;
4、查询分区表
select  *  from  beauties  where  nation='China' ;     
5、多表关联:
select  t . account ,  u . name , t . income , t . expenses , t . surplus from  user_info  u  join  (select  account ,  sum(income)  as  income ,  sum(expenses) as  expenses , sum(income-expenses)  as  surplus  from 
trade_detail  group  by  account)  t  on  u . account  =  t . account ;
别名
select count(distinct e.uid) from (select * from tablenamewhere
rank <=3 and order =1) e;
小括号中返回的也是一个表,它只是临时的 别名为e
查搜索过"奥巴马" 的用户所搜过的关键字
select  m.uid,m.keyword  from (select  distinct n.uid from
tablenamewhere keyword like '%奥巴马%' n ) m  
where m.uid=n.uid;
查搜索过"奥巴马" 的用户所搜过的不包含"奥巴马"本身的关键字
select m.uid,m.keyword from sogou_20111230 m join (select distinct uid from sogou_20111230 where keyword like '%奥巴马%') n on m.uid=n.uid where m.keyword not like '%奥巴马%';
UNION ALL可以将2个或多个表进行合并
select count(distinct e.uid)from(
select * from tablename where rank<11 
union all 
select * from ext_sogou_20111230_limit3 where rank < 11) e;
6、去重查询:group   by的使用
select  *  from  mytable  group  by  uid ;
Group by 语句通常会和聚合函数一起使用,按照一个或者多个对结果进行分组,然后对每个组执行聚合操作
select year(ts), avg(rank) from tablename where ts like '%2011' group by year(ts);
7、独立UID总数:
select  count(distinct(uid)) from  mytable ; (高效) 或者    select  count(*) from(select  *  from mytable  group  by  uid)  a ;
8、查询频度排名(频度最高的前50):
select keyword,count(*) as cnt from test group by keyword order by cnt desc limit 50;
9、 添加防止删除的保护:
alter table tablename
> partition (day='0925') enable no_drop;
删除添加的"删除"保护:
alter table tablename
> partition (day='20161207') disable no_drop;
10、添加防止查询的保护:
alter table tablename
> partition (day=20161207') enable offline;
删除防止查询的保护:
alter table tablename
> partition (day='20161207') disable offline;
11、强转:
select cast(rank as DOUBLE) from tablename limit 10;
12、 拼接:
select concat(uid,url) from tablename limit 10;
13、 查找url字符串中的5位置之后字符串str第一次出现的位置
select locate("str",url,5) from tablename limit 100;
14、 抽取字符串str中符合正则表达式url的第5个部分的子字符串
select regexp_extract("str",url,5) from tablename limit 100; 
15、  按照正则表达式"0"分割字符串uid,并将分割后的部分以字符串数组的方式返回
select split(uid,"0") from tablename limit 100;
16、  对字符串url,从0处开截取长度为3的字符串,作为其子字符串
select substr(url,0,3) from tablename limit 3; 
17、 将字符串url中所有的字母转换成大写字母
select upper(url) from tablename limit 3;
18、 where  ..and  或者 where ....or   where的 两种条件查询 
select * from  tablename where rank<=3 and order =1 limit 3;
select * from  tablenamewhere rank !=0 or order =1 limit 3;
19、like 过滤字符串 
select *  from  tablename where url like '%http%' limit 10;
rlike 通过Java的正则表达式过滤  *与%功能一样 ,它是hive中扩展功能的操作符
select * from tablenamewhere url rlike  ' .*http.* ' limit 3; 
20、left semi-join 左半表 semi 半挂的 半独立的
select * from be where rank in(1,2,5);
select  * from  tablenamem left semi join  ext_sogou_20111230_limit3  n on m.rank=n.rank;
21、视图 hive只支持逻辑视图 作用降低查询复杂度
创建视图
create view sogou_view  as 
select * from tablenamewhere rank <=3;
22、 索引 
Hive的索引需要单独创建表实现
创建索引
CREATE INDEX employees_index ON TABLE employees (name) AS 
'org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler'
WITH DEFERRED REBUILD IDXPROPERTIES('creator' = 'me','
created_at '='some  time') IN TABLE employees_index_table;
23、上午7-9点之间,搜索过“百度”的用户,哪些用户直接点击了百度的URL
老师:
select distinct n.uid from (select * from sogou_view where keyword ='百度')
and  substr(ts,9,2) in ('07','08','09')) n where n.url like '%baidu.com%';
select uid  from sogou_view where (cast(substr(ts,9,2) 
as int)>7  or cast(substr(ts,9,2) as int)<9) and url 
like '%www.ganji.com%' or keyword like '%百度%' ;
select uid  from sogou_view where substr(ts,9,2) in ('07','08','09') and url

like '%www.ganji.com%' and  keyword like '%百度%' ;


select

Hive-SQL的基本结构同标准SQL相差不大,结构如下:

select * from employee 
where sex_age.sex='Male'

/*支持使用distinct去重*/
select distinct name,sex_age.sex as sex from employee;
select distinct * from employee; // supported after release 1.1.0

/*hive 0.7.0之后,支持having子句*/
SELECT col1 FROM t1 GROUP BY col1 HAVING SUM(col2) > 10;

/*支持limit子句,限制返回行数*/
SELECT * FROM t1 LIMIT 5; // 随机返回5行

/*返回Top K行*/
SET mapred.reduce.tasks = 1
SELECT * FROM sales SORT BY amount DESC LIMIT 5
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

在Hive-SQL中,也支持嵌套查询及子查询,但是,不允许出现多重嵌套或多重子查询的情况,常用的子查询方式如下:

/*通过with语句,子查询必须申明别名*/
with t1 as (
select * from employee 
where sex_age.sex='Male'
)
select name,work_place from t1;

/*子查询放置在from子句,子查询必须申明别名*/
select name,sex_age.sex from
(
select * from employee 
where sex_age.sex='Male'
) t1;

/*
子查询放置在where子句,在where子句中的子查询支持in,not in,exists,not exists,但需要注意的是,使用in或not in时,
子查询只能返回一个字段,且使用in/not in不能同时涉及内/外部表
*/
select name,sex_age.sex from
employee a // 外部表必须申明别名,不然Hive报错
where a.name in (
select name from employee
where sex_age.sex='Male'
);

/*
ERROR: 
in/not in不能同时涉及内/外部表,exists/not exists没有这个限制
*/
select name,sex_age.sex from
employee a
where a.name in (
select name from employee
where sex_age.sex!=a.sex_age
);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35

另外,where子句可以支持任何Boolean表达式及User Define Function。

Partition Based Queries

想要触发hive的分区查询,必须满足以下两个条件: 
- 建表时使用了partitioned by 
- where条件中包含分区字段,或者join语句的on子句包含分区字段 
因为hive只会扫描特定分区的数据,所以,分区查询可以提高查询的速度。

REGEX Column Specification

hive支持通过正则表达式来声明查询字段。

SELECT `(ds|hr)?+.+` FROM sales

Hive 操作数据库语句总结

转载地址:http://blog.csdn.net/xiaoshunzi111/article/details/48727831

1、创建一个表,字段之间用 \t 分隔;

        Hive>create  table  student (id  int,  name  string) row  format  delimited  fields  terminated  by '\t' ;


2、将本地一个数据提交到hive里去

        hive>load data local inpath '/home/student.txt' into  table  student ;

      2.1 增加分区表数据

      alter table ZHIYOUBAO.CHECK_RECORD add  partition (years='xxxx',months='xx',days='xx') location                         '/ZYB/CHECK_RECORD/yy=xxxx/mm=xx/dd=xx/';

3、查询表里的数据:

        hive>select  *  from  student ;


4、只查询前两条:

        hive>select  * from  student  limit  2 ;


5、统计一个表的行数:

        hive>select  count(*)  from student ;


6、求一个表id字段的id 之和:

        hive>select  sum(id)  from  student ;


7、创建外部表:

        hive>create  external  table  ext_student  (id int, name string) row format delimited  fields  terminated  by  ' \t  '  location  ' /data ' ;     //这样就不必将文件放到hive里去 就可以对其进行操作了   ,只需要将文件放到hdfs上的/data目录下面。


8、内部表先有表后有数据;外部表先有数据后有表。


9、创建分区表:
        hive>create external table beauties  (id bigint, name string,  size  double)  partitioned by (nation  string)  row  format  delimited fields  terminated  by  '\t'  location  '\beauty' ;
        hive>load  data  local  inpath  '/home/b.c'  into  table  beauties  partition(nation='China') ;
        hive>alter  table  beauties  add  partition  (nation='Japan') ;
        hive>select  *  from  beauties ;

        hive>select  *  from  beauties  where  nation='China' ;           //查找某一分区的数据内容;


10、多表关联:

        hive>select  t . account ,  u . name , t . income , t . expenses , t . surplus from  user_info  u  join  (select  account ,  sum(income)  as  income ,  sum(expenses) as  expenses ,  sum(income-expenses)  as  surplus  from 

trade_detail  group  by  account)  t  on  u . account  =  t . account ;


11、存储过程没有返回值,函数有返回值


12、在linux环境下一次访问hive:

        [hh@master ~]$ hive  -e  "selcte  *  from  mytable   limit  3" ;


13、[hh@master ~]$ hive -f 1.hql


14、打印表的字段信息:

            hive>describe  yourtable ;


15、创建数据库:
        hive>create  database  financials ;

        hive>create  database  if  not  exists  financials ;


16、过滤数据库:

        hive>show  databases  like  " f . * " ;


17、添加描述信息:
        hive> create database test092302 with dbproperties ('creator'='Mark', 'date'='2015-09-23');

        hive> describe database extended test092302;


18、删除数据库:
        hive> drop database if exists human_resources;   或者

        hive> drop database human_resources;


19、删除存在表的数据库:

        hive> drop database test0923 cascade;      //在后面加上cascade关键字


20、创建数据库时添加描述信息:

        hive> create database test092302 comment 'Holds all test tables';     //使用comment,创建表时也可以用


21、去重查询:group   by的使用

        hive>select  *  from  mytable  group  by  uid ;


22、独立UID总数:

        hive>select  count(distinct(uid)) from  mytable ; (高效) 或者   hive>select  count(*) from(select  *  from mytable  group  by  uid)  a ;


23、查询频度排名(频度最高的前50):

        hive> select keyword,count(*) as cnt from sogou_1w group by keyword order by cnt desc limit 50;


24、将查询的结果放入另一个表中:
        hive> create table uid_cnt (uid string, cnt int) row format delimited fields terminated by '\t';       //先创建临时表 uid_cnt

        hive> insert overwrite table sogou.uid_cnt select uid,count(*) from sogou_1w group by uid;     //再将查询的数据结果放入临时表中

25 修改列名:
hive> alter table test
    > column ·stuname·  name string;“ · ”右上角的~键

describe test;

26 增加列:
hive> alter table test add columns(
    > height int);

hive>describe test;

27替换列:
hive> alter table test replace columns(
    > id int,
    > name string,
    > age int);

28 为表添加属性:
hive> alter table test set tblproperties (
    > 'note'='hello welcome');

show create table test;
========================================
29 创建带有分区的内部表:
hive> create table testpar(
    > id int,
    > name string,age int) PARTITIONED BY (day string)
    > ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' 
    > location '/testpar';

30 为带有分区的内部表加载数据:
hive> load data local inpath '/home/test' into table testpar 
    > partition (day='0925');

31 添加防止删除的保护:
hive> alter table testpar
    > partition (day='0925') enable no_drop;

32 测试:删除分区
hive> alter table testpar drop if exists partition (day='0925');

33 删除添加的"删除"保护:
hive> alter table testpar
    > partition (day='0925') disable no_drop;

34 添加防止查询的保护:
hive> alter table testpar
    > partition (day='0925') enable offline;

35 删除防止查询的保护:
hive> alter table testpar
    > partition (day='0925') disable offline;

select * from testpar;
================================================


36 按条件向分区表插入数据
hive>from test_1  ts  
insert into table  testpart partition (day='0920') select * where ts.age>20   
insert into table testpart partition (day='0919') select * where ts.name='xiaofang'; 

注释:

上面SQL语句分三部分
第一部分 
 from test_1  ts  从rest_1表中查询并为其添加ts别名
第二部分 
insert into table  testpart partition (day='0920') select * where ts.age>20
将test_1表中年龄大于20的数据添加到分区表testpart中新建的0920分区中.
第三部分   
insert into table testpart partition (day='0919') select * where ts.name='xiaofang'
将test_1表中名字为xiaofang的数据添加到分区表testpart中新建的0919分区中

查询结果:
hive>  select  * from  testpart;


37 向管理表中加载数据:
hive> load data local inpath '/home/test' overwrite  into table testpar partition (day='0925');

38 通过查询语句向表中插入数据:
hive> insert into table testpar
    > partition (day='0926')
    > select * from test;

hive> select * from testpar;

hive> insert into table testpar
    > partition (day='0922')
    > select * from test
    > where age >20;

hive> from test
    > insert into table testpar
    > partition (day='0921')
    > select * where age>22;

hive> from test ts
    > insert into table testpar
    > partition (day='0920')
    > select * where ts.age>20
    > insert into table testpar
    > partition (day='0919')
    > select * where ts.name='张三';

==================动态分区插入===================
39 在test表中添加一列day
hive> alter table test add columns(day string);

[hh@master ~]$ vi test
[hh@master ~]$ cat test
1    张三    20    0921
2    李四    22    0922
3    Jarrey    25    0923
40 加载数据:
hive> load data local inpath '/home/test' overwrite into table test;
动态分区(下面两种方式实现的效果是一样的):
hive>  set hive.exec.dynamic.partition=true;
hive>  set hive.exec.dynamic.partition.mode=nonstrict;
hive>  set hive.exec.max.dynamic.partitions.pernode=1000;

hive> insert into table testpar
    > partition(day)
    > select * from test;

hive> insert into table testpar
    > partition(day)
    > select id,name,age,day from test;

41单个查询语句中创建表并加载数据:(注意关键字as)
hive> create table newtest
    > as select id,name,age from test
    > where name='李四';

hive> select * from newtest;

====================导出数据======================
42 Hadoop fs –cp source_path target_path
cp
scp -r /jdk  slave://home/

注释:

scp =safety copy 即是安全模式下复制   r=recuresive 递归方式复制  即是从主目录到各个子目录依次复制

Sqoop工具(T15)

========hdfs数据加载等操作=======

43  从hdfs集群中加载数据
hive>load  data  inpath 'hdfs目录文件'  into  table  student;

44 按id降序排序
hive>select * from  student  order by id desc;


45   从hdfs集群中加载数据并为表设置指定分区
hive>load  data  input  '本地文件路径' into  table  表名  partition (分区字段=' ');


46 从本地内存中加载数据
hive>load data local inpath '本地目录文件' into  table  student;


47 按id降序排序
hive>select * from  student  order by id desc;

48 表联合查询
hive>select t.account u.name,t.income,t.expenses,t.surplus from user_info
u join (select account, sum(income) as income,sum(expenses) as expenses,sm(income_expenses)
as surplus from trade_detail group by account) on u.account=t.account;



==================数学函数:===================
Hive语句运算:
49 int类型rank加运算

hive>select rank+1 from  ext_sogou_20111230 limit 100;

50 对int字段平方
hive> select pow(rank,2) from  ext_sogou_20111230;

51  取模:(如:2对三取模)
hive>select pmod(2,3) from ext_sogou_20111230 limit 10;


==============聚合函数========================
52 统计表中所有行数
hive>select count(*) from  ext_sogou_20111230 limit 10;
*表示表中所有字段也可以设置某些或某个字段 如

hive>select count(uid,ts) from  ext_sogou_20111230 limit 10;

53. 

hive>select  sum(uid) from ext_sogou_20111230;

54 最大值&最小值

hive>select max(rank), min(rank) from ext_sogou_20111230;

55 .独立uid(去重行数)
hive>select count(distinct uid) from ext_sogou_20111230;


56强转:
hive> select cast(rank as DOUBLE) from ext_sogou_20111230 limit 10;

57  拼接:
hive>select concat(uid,url) from ext_sogou_20111230 limit 10;


=================JSON========================
58  抽取JSON对象的某一属性值
hive>select get_json_object('{"name":"xiaoming","age":"15"}','$.age') from ext_sogou_20111230 limit 5;
结果:
15

59

hive>select  get_json_object(channel,'$.age') from ext_sogou_20111230 limit 3;

=============================================
60 查找url字符串中的5位置之后字符串baidu第一次出现的位置
hive> select locate("baidu",url,5) from ext_sogou_20111230 limit 100;

61 .抽取字符串baidu中符合正则表达式url的第5个部分的子字符串
hive> select regexp_extract("baidu",url,5) from ext_sogou_20111230 limit 100; 

62  按照正则表达式"0"分割字符串uid,并将分割后的部分以字符串数组的方式返回
hive> select split(uid,"0") from ext_sogou_20111230 limit 100;
结果之一:["","875edc8a14a228","1bac1ddc","1fa18a1"]

63  对字符串url,从0处开截取长度为3的字符串,作为其子字符串
hive> select substr(url,0,3) from ext_sogou_20111230 limit 3; 

64 .将字符串url中所有的字母转换成大写字母

hive> select upper(url) from ext_sogou_20111230 limit 3;


============别名 嵌套SQL语句===============

65  复杂HQL 如别名、嵌套等

hive>select count(distinct e.uid) from (select * from ext_sogou_20111230 where
rank <=3 and order =1) e;
小括号中返回的也是一个表,它只是临时的 别名为e 

66  where  ..and  或者 where ....or   where的 两种条件查询 
 hive> select * from  ext_sogou_20111230  where rank<=3 and order =1 limit 3;
 hive> select * from  ext_sogou_20111230 where rank !=0 or order =1 limit 3;

where 
1 出现在表后  
2 可以有and  or  表达式的操作符
3 表示格式

67  浮点类型的比较 一定要强转

68  like 过滤字符串 

      它是一个标准的SQL操作符
hive> select *  from  ext_sogou_20111230  where url like '%http%' limit 10;
'%http%'意为包含 http字符串
'%http' 以http开头的字符串
'http%'一http结束字符串

69  rlike 通过Java的正则表达式过滤  *与%功能一样 

      它是hive中扩展功能的操作符
hive> select * from ext_sogou_20111230 where url rlike  ' .*http.* ' limit 3; 


=========group by============

70 Group by 语句通常会和聚合函数一起使用,按照一个或者多个对结果进行分组,然后对每个组执行聚合操作
hive>select year(ts), avg(rank) from ext_sogou_20111230 where ts like '%2011' group by year(ts);

71 对组过滤
hive> select rank ,count(*) from ext_sogou_20111230  group by rank ,order having rank >3  limit 10;


===============join==========
72 join 使用join时要选择具有独立的字段作为条件字段,否则会出现不必要的数据量
hive> select m.uid,m.keyword from ext_sogou_20111230 m join ext_sogou_20111230_limit3 n on m.uid =n.uid;


73 查搜索过"仙剑奇侠传" 的用户所搜过的关键字
hive>select  m.uid,m.keyword  from (select  distinct n.uid from
ext_sogou_20111230 where keyword like '%仙剑奇侠传%' n ) m  
where m.uid=n.uid;


74 查搜索过"仙剑奇侠传" 的用户所搜过的不包含"仙剑奇侠传"本身的关键字
hive>select m.uid,m.keyword from sogou_20111230 m join (select distinct uid from sogou_20111230 where keyword like '%仙剑奇侠传%') n on m.uid=n.uid where m.keyword not like '%仙剑奇侠传%';



75  left semi-join 左半表 semi 半挂的 半独立的
hive>select * from be where rank in(1,2,5);
hive>select  * from  ext_sogou_20111230 m left semi join  ext_sogou_20111230_limit3  n on m.rank=n.rank;

 76笛卡尔积
 如5w  1w  join  结果:5w*1w   一般不常用

77 map-side JOIN当两张表很小时使用(系统默认25MB)

 功能:其中一张表为小表  即是将小表数据JOIN到大表中
 hive>select /*+MAPJOIN(n)*/ m.uid,m.keyword,n.keyword 

 from ext_sogou_20111230 m join ext_sogou_20111230_limint3 n on m.uid=n.uid;


=====================排序=========================
78 全局排序(order by ) 和局部排序 (sort by)
hive>select * from ext_sogou_20111230 order by rank desc limit 100;

79 对sogou500w中降序排列uid次数 
hive>select uid, count(*)  as nct from ext_sogou_20111230   group by uid order by nct desc ;

80 cast()类型转换函数 
hive>select  cast(ts as bigint) from 
 ext_sogou_20111230_limit3;
 
81 UNION ALL可以将2个或多个表进行合并。

hive> select count(distinct e.uid)from(
select * from ext_sogou_20111230 where rank<11 
union all 
select * from ext_sogou_20111230_limit3 where rank < 11) e;

82
hive>select count(*) from ext_sogou_20111230_limit where keyword like '%www%';
  
83
hive> select e.url,e.keyword,count(*) from (
select * from ext_sogou_20111230 where keyword like '%www%'
)e  group by  e.url,e.keyword where instr(url,keyword) >0;

84搜索过'%仙剑奇侠传%'(模糊匹配),并且查询次数大于3的UID
 hive>select uid, count(uid) as nct from 
 ext_sogou_20111230  where keyword like '%仙剑奇侠传%'
 group by uid having nct>3 ;

================================
              视图
================================
85视图 hive只支持逻辑视图 作用降低查询复杂度
  创建视图
hive>create view sogou_view  as 
select * from ext_sogou_20111230 where rank <=3;

86 索引 
   Hive的索引需要单独创建表实现
   创建索引

hive>CREATE INDEX employees_index ON TABLE employees (name) AS 
'org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler'
WITH DEFERRED REBUILD IDXPROPERTIES('creator' = 'me','
created_at '='some  time') IN TABLE employees_index_table;


87 视图
hive>create view sogou_filter as select uid,count(*) from 
ext_sogou_20111230 where keyword like '%仙剑奇侠传%'

复杂问题解题思路:
1)分步骤,使用临时表
2)分步骤,多个视图实现
create view
3)一个复杂的SQL

create table insert overwrite table...select * from ...


=======================================
Sogou 500w数据
88

搜索长度大于256(不区分中英文),并且点击次数<3的UID
老师:
hive>select m.uid,count(*) as cnt from(select * from sogou_view  where  length(
keyword) >256) m group by m.uid having cnt<3;
自己:
select uid from sogou_view  where rank<3 and length(
keyword) >256;
hive> create view sogou_view as select * from
    ext_sogou_20111230;

89
上午7-9点之间,搜索过“赶集网”的用户,哪些用户直接点击了赶集网的URL

老师:
hive> select distinct n.uid from (select * from sogou_view where keyword ='赶集网')
and  substr(ts,9,2) in ('07','08','09')) n where n.url like '%ganjin.com%';
自己:
hive> select uid  from sogou_view where (cast(substr(ts,9,2) 
as int)>7  or cast(substr(ts,9,2) as int)<9) and url 
like '%www.ganji.com%' or keyword like '%赶集网%' ;
或者
hive>select uid  from sogou_view where substr(ts,9,2) in ('07','08','09') and url
like '%www.ganji.com%' and  keyword like '%赶集网%' ;

90
rank<3的搜索中,多少用户的点击次数>2

老师:
hive>select a.uid from (select uid,count(*) as cnt from (select * from sogou_view where
rank<3) e group by e.uid having cnt>2) a;
自己:
hive>select  uid,count(uid) as nct from sogou_view 

where rank<3  group by uid having nct>2;



=======================
        hive设计模式
=======================
20151008 
AM

1.表的划分方式:按天划分如table_2011_01_01
2.分区:hive中的分区功能很有用,
3 最原始的数据尽量少使用分区,
  经过加工后的数据可以用分区.
4 表与分区的字段不能重复
5 分区有级别 根据实际的业务自定义分区
  create table supply () partitioned by();

91  同一份数据多种处理
hive>insert overwrite table sogou_20111230_rank
select * from sogou_20111230 where rank=3;


92
hive>insert overwrite table sogou_20111230_order
select * from sogou_20111230 where order=3;

上面两句(91  92)合并成一句(93)如下

93

hive>from sogou_20111230  
insert overwrite table sogou_20111230_rank 
select * where  rank =3 
insert overwrite table sogou_20111230_order 
select * where order=3;

94 为表增加列 (只能末尾追加)

ALTER TABLE sogou_20111230 ADD COLUMNS (user_id string) ;

列的存储有两种格式ORC和RCFile

========================================
    Hive内置函数和UDF(用户自定义函数)
========================================
95 查看内置函数
hive> show functions; 

96 查看某一函数具体描述
hive>describe function 函数名;

一般聚合函数与group by 组合使用
分3种:
1 UDF(标准函数):普通函数
2 UDAF(用户自定义聚合函数):多行多列变一行
3 UDTF(用户自定义表生成函数):多行多列变多行

===========UDF操作过程==============
91 在eclipse中创建java类 如UDFZodiacSign

92 添加UDFZodiacSign的jar包

hive>add jar /home/udf.jar 

93 创建外部表如little_bigdata
hive>create external table if not exists 
little_bigdata(name string,email string,bday 
string,ip string, gender string, anum int) 
row format delimited fields terminated by ',';

94 创建zodiac作为UDFZodiacSign类的临时函数 as'包名.类名' 
hive>create temporary function zodiac as 'day1008.UDFZodiacSign';

95 查看zodiac是否OK
hive> describe function zodiac;

96 将little_bigdata表中name字段中数据传入临时函数zodiac中
hive> select zodiac(name) from little_bigdata; 

============================================

97 统计没有农产品市场的省份有哪些

马:
hive> select e.name from (
select distinct prov from product
) a right outer join province e on a.prov = e.name
where a.prov is null

98统计排名前 3 的省份共同拥有的农产品类型

1计算前三省份的名称
2计算前三省份的所有去重产品名称
3计算共同拥有的产品
数据按A  B  C  D  E 步骤计算

hive>select c.name,count(*) as ct from 
E 列出前三省相同的熟菜,并计数
(select a.prov,a.name from 
D 从A数据中比较与B中前三个相同列 的省份及其熟菜
(select prov,name from product group by prov,name
A 分组列出所有省,及其所在省的熟菜(分组就是去重)
) a 
  left semi join
(select p.prov,count(*) as cnt from 
 C 对不同省份计数 省1  number1  省2  number2
并按降序排列列出前三个省
(select prov,name from product group by prov,name
B 分组列出所有省,及其所在省的熟菜(分组就是去重)
) p 
  group by p.prov order by cnt desc limit 3
) b
  on a.prov = b.prov
 
) c group by c.name having ct > 2


-------------------------------------------------------------------------------------
hive> select (2015-age)as ag  ,sex  from car_1  where age !=null or sex !="";

hive> select m.ag,count(*) as nct from
     (select (2015-age) as ag ,sex  from car_1  where age !=null or sex !="") 
     m  group by m.ag;
--------------------------------------------------------------------------------------


=============================
  自定义Hive文件和记录格式
=============================

hive三种文件格式:textfile sequencefile  rcfile
前两种一行存储  rcfile以列存储
他们影响整个文件格式

sequencefile  与 textfile  文件格式在读取效率上
testfile更高些

默认分隔符格式/001 即是Ctr+A
stored  as  textfile 表文件的存储格式

99 创建sequencefile格式的表
hive>create  external  table sogou_20111230_seq(ts string,
uid string,keyword string,rank int,order int
,url string) row format delimited fields 
terminated by '\t' stored as sequencefile;

100 向该表中插入数据
hive>insert table sogou_20111230_seq select 
ts,uid,keyword,rank,order,url from 
sogou_20111230 limit 50000;

101 创建rcfile格式的表:基于列式存储
hive>create table sogou_20111230_rc(ts string,
uid string, keyword string,rank int, order 
int, url string) row format delimited fields
terminated by '\t' stored as rcfile;

102 向该表中插入数据
hive>insert overwrite table sogou_20111230_rc 
select ts, uid,keyword,rank,order,url
from ext_sogou_20111230 limit 50000;

103 记录格式 SerDe是序列化/反序列化的简写

104 CSV和TSV SerDe(csv内部实现各式逗号分割\n换行)


hive 记录格式:影响文件内部数据存储格式
105 XPath相关的函数
hive>SELECT xpath ('
      <a><b id="foo">bl</b>
      <b id="bar">b2</b></a>','//@id' )
      FROM car_1 LIMIT 1;


106 计算北京市的每种农产品的价格波动趋势,即计算每天价格均值,并按照时间先后顺序排列该值。
某种农产品的价格均值计算公式:
PAVG = (PM1+PM2+...+PMn-max(P)-min(P))/(N-2)
其中, P 表示价格, Mn 表示 market,即农产品市场。 PM1 表示 M1 农产品市场的该产品价
格, max(P)表示价格最大值, min(P)价格最小值。

思路:

第一步:筛选出1-5天内 时间 熟菜名称  两个字段 
第二步:用if三目运算,判断各种熟菜波动次数是否大于2次,
第三步:求平均值


hive>select m.date,m.name,if(count(*)>2,
 round((sum(m.price)-max(m.price)-min(m.price))/(count(*)-2),2),
 round(sum(m.price)/count(*),2))
from ( 
select * from product_20140101 where province='北京'
union all
select * from product_20140102 where province='北京'
union all
select * from product_20140103 where province='北京'
union all
select * from product_20140104 where province='北京'
union all
select * from product_20140105 where province='北京'
) m  
group by m.date,m.name;

107  使用简单时间序列算法, 设置 N=3,预测 1.4、 1.5 日的平均价格
hive>create table price_hg_pre0104(ptime TIMESTAMP,name STRING,price FLOAT);

hive>insert overwrite table price_hg_pre0104
select * from price_hg where day(cast(ptime as string)) < 4
union all
select cast('2014-01-04 00:00:00' as timestamp) as ptime,'黄瓜' as name,sum(price)/3 as price from price_hg where day(cast(ptime as string)) < 4

108  并计算与实际数据的平方误差和
hive>create table price_hg_pre0105(ptime TIMESTAMP,name STRING,price FLOAT);

hive>insert overwrite table price_hg_pre0105
select cast('2014-01-05 00:00:00' as timestamp) as ptime,'黄瓜' 
as name,sum(price)/3 as price from price_hg_pre where day(cast(ptime as string)) < 5
and day(cast(ptime as string)) > 1


109 表添加一列 :
hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);



110 添加一列并增加列字段注释

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

111 更改表名:
hive> ALTER TABLE events RENAME TO 3koobecaf;
112 删除列:hive> DROP TABLE pokes;

113增加、删除分区

•增加

  1. ALTER TABLE table_name ADD [IF NOT EXISTS] partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ...
  2.       partition_spec:
  3.   : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)

•删除
  1. ALTER TABLE table_name DROP partition_spec, partition_spec,...
     REPLACE则是表示替换表中所有字段。

114 重命名表
  1. ALTER TABLE table_name RENAME TO new_table_name

115 修改列的名字、类型、位置、注释:
  1. ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]

•这个命令可以允许改变列名、数据类型、注释、列位置或者它们的任意组合

116 表添加一列 :
  1. hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

117 添加一列并增加列字段注释
  1. hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

118增加/更新列
  1. ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)  
复制代码

• ADD是代表新增一字段,字段位置在所有列后面(partition列前)

119   create external table logs (ip string ,name1 string,name2 string,name3 string ,name4 string ,name5  string, name6 string, name7 string, name8 string,name9 string,name10 string,name11 string) row format delimited fields  terminated by ' ';

select name1 from (select  as c  from  logs where ip ='58.214.255.146';

数据格式:

183.166.128.178 -       -       [09/Apr/2016:07:58:33   +0800]  "POST   /boss/service/newCode.htm      HTTP/1.1"       200     227     "-"     "-"
120正序:
select ip ,sum(name9) as c from logs where name3 like '[09/Apr/2016:07:55%' group by ip order by c desc;

121 逆序:
select  name6,count(1) as b from logs where name3  like '[09/Apr/2016:07:5%' group by name6 order by b asc;
122 逆序:
select  name6,count(1) as b from logs where name3  like '[09/Apr/2016:07:5%' group by name6 sort by b asc;

123取前一千行放到一个新表里

hive> insert into table hivecontain_small            
    > select * from hivecontain limit 1000;

124 更新表字段

hive>insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

125 截取表字段部分值并插入新表

hive> insert table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

126.tourist_consume_details 用户消费信息(金额、订单数、游玩人次)

select link_name, sex, city ,tel, certificate_no ,sum(close_total_price) as total_price ,sum(popnum) as popnum,count(tourname) as  tournum from order_raw_info 
group by link_name,sex,city ,tel,certificate_no;

127.bucketed_user 分桶查询随机id

select * from bucketed_user  TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand())

128.bucketed_user 创建带桶的外部表

create external  table if not exists  bucketed_user2(id int,name string) clustered by (id) sorted by(name) into 4 
buckets row format delimited fields terminated by ',' stored as textfile location  '/kafka/' ;

129.province_city_scenic_per_nums 表字段的截取

select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

130.province_city_scenic_per_nums 表字段更新(如0.001242更新为0.001)

insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

131.改表字段

alter table scenic_tour_info  change `spotname` spot_name string;

132.split使用

select split("13901888346","1390188")[1] from quyu_visit_info limit 10;

133.quyu_visit_info 按条件插入表数据

insert into table quyu_visit_info  select u.visitor_id, u.tel, u.city from solo_mobile_quyu u limit 100;

134.tourt_ype_date_total (new) 景区类型(按时间分组)游客量统计

 select * from(
   select  p.date, p.tour_type,count(p.date) total
   from (
          select tour_type, substr(occ_date, 0,4) as date  
          from scenic_tour_info ) p 
   where p.date like '201%' 
   group by p.tour_type, p.date 
   order by p.date desc ) t 
          where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016';

135.date_spotprovince_type_total 按省份统计 景区类型(按时间分组)游客量统计

 select * from(
   select  p.date, p.spot_province, p.tour_type as scenic_type,count(p.date) total
   from (
          select spot_province,  tour_type, substr(occ_date, 0,4) as date  
          from scenic_tour_info ) p 
   where p.date like '201%' 
   group by  p.spot_province,p.tour_type, p.date 
   order by p.date desc ) t 
          where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016' ;

136.scenic_city_province_per_nums 统计某省各景区客流量的比重(占该省比重)及其客流量

select distinct p.spot_name, p.spot_city, (p.nums/5358582) per  ,p.nums
from province_city_scenic_nums p join province_tour_nums  c 
on  p.spot_province='浙江省' 
order by per desc 

137.表重命名

ALTER TABLE tour_info_detail RENAME TO new_name;  scenic_info_detail  ;

138.rename_ziduan 重命名表字段名

alter table scenic_info_detail  change  `proname` spotprovince string;

下面引用:http://blog.csdn.NET/wisgood/article/details/17376393;感谢作者:wisgood

常用函数:

一、关系运算:

1. 等值比较: =

         语法:A=B

         操作类型:所有基本类型

         描述:如果表达式A与表达式B相等,则为TRUE;否则为FALSE

         举例:

         Hive>select 1 from lxw_dual where 1=1;

         1

2. 不等值比较: <>

         语法: A <> B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A与表达式B不相等,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 <> 2;

1

3.小于比较: <

         语法: A < B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 < 2;

1

4. 小于等于比较: <=

语法: A <= B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于或者等于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 <= 1;

1

5. 大于比较: >

语法: A > B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 2 > 1;

1

6. 大于等于比较: >=

语法: A >= B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于或者等于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 >= 1;

1

注意:String的比较要注意(常用的时间比较可以先to_date之后再比较)

hive> select* from lxw_dual;

201111120900:00:00    2011111209

hive> selecta,b,a<b,a>b,a=b from lxw_dual;

201111120900:00:00    2011111209      false   true    false

7. 空值判断: IS NULL

语法: A IS NULL

操作类型:所有类型

描述:如果表达式A的值为NULL,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where null is null;

1

8. 非空判断: IS NOTNULL

语法: A IS NOT NULL

操作类型:所有类型

描述:如果表达式A的值为NULL,则为FALSE;否则为TRUE

举例:

hive> select1 from lxw_dual where 1 is not null;

1

9. LIKE比较: LIKE

语法: A LIKE B

操作类型: strings

描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合表达式B  的正则语法,则为TRUE;否则为FALSE。B中字符”_”表示任意单个字符,而字符”%”表示任意数量的字符。

举例:

hive> select1 from lxw_dual where 'football' like 'foot%';

1

hive> select1 from lxw_dual where 'football' like 'foot____';

1

注意:否定比较时候用NOT ALIKE B

hive> select1 from lxw_dual where NOT 'football' like 'fff%';

1

10. JAVA的LIKE操作: RLIKE

语法: A RLIKE B

操作类型: strings

描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合Java正则表达式B的正则语法,则为TRUE;否则为FALSE。

举例:

hive> select1 from lxw_dual where 'footbar’ rlike '^f.*r$’;

1

注意:判断一个字符串是否全为数字:

hive>select 1from lxw_dual where '123456' rlike '^\\d+$';

1

hive> select1 from lxw_dual where '123456aa' rlike '^\\d+$';

11. REGEXP操作: REGEXP

语法: A REGEXP B

操作类型: strings

描述:功能与RLIKE相同

举例:

hive> select1 from lxw_dual where 'footbar' REGEXP '^f.*r$';

1

二、数学运算:

1. 加法操作: +

语法: A + B

操作类型:所有数值类型

说明:返回A与B相加的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int + int 一般结果为int类型,而int + double一般结果为double类型

举例:

hive> select1 + 9 from lxw_dual;

10

hive> createtable lxw_dual as select 1 + 1.2 from lxw_dual;

hive> describelxw_dual;

_c0     double

2. 减法操作: -

语法: A– B

操作类型:所有数值类型

说明:返回A与B相减的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int– int 一般结果为int类型,而int– double 一般结果为double类型

举例:

hive> select10 – 5 from lxw_dual;

5

hive> createtable lxw_dual as select 5.6 – 4 from lxw_dual;

hive>describe lxw_dual;

_c0     double

3. 乘法操作: *

语法: A * B

操作类型:所有数值类型

说明:返回A与B相乘的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。注意,如果A乘以B的结果超过默认结果类型的数值范围,则需要通过cast将结果转换成范围更大的数值类型

举例:

hive> select40 * 5 from lxw_dual;

200

4. 除法操作: /

语法: A / B

操作类型:所有数值类型

说明:返回A除以B的结果。结果的数值类型为double

举例:

hive> select40 / 5 from lxw_dual;

8.0

注意:hive中最高精度的数据类型是double,只精确到小数点后16位,在做除法运算的时候要特别注意

hive>select ceil(28.0/6.999999999999999999999) from lxw_duallimit 1;   

结果为4

hive>select ceil(28.0/6.99999999999999) from lxw_dual limit1;          

结果为5

5. 取余操作: %

语法: A % B

操作类型:所有数值类型

说明:返回A除以B的余数。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 41 % 5 from lxw_dual;

1

hive> select 8.4 % 4 from lxw_dual;

0.40000000000000036

注意:精度在hive中是个很大的问题,类似这样的操作最好通过round指定精度

hive> select round(8.4 % 4 , 2) from lxw_dual;

0.4

6. 位与操作: &

语法: A & B

操作类型:所有数值类型

说明:返回A和B按位进行与操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 & 8 from lxw_dual;

0

hive> select 6 & 4 from lxw_dual;

4

7. 位或操作: |

语法: A | B

操作类型:所有数值类型

说明:返回A和B按位进行或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 | 8 from lxw_dual;

12

hive> select 6 | 8 from lxw_dual;

14

8. 位异或操作: ^

语法: A ^ B

操作类型:所有数值类型

说明:返回A和B按位进行异或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 ^ 8 from lxw_dual;

12

hive> select 6 ^ 4 from lxw_dual;

2

9.位取反操作: ~

语法: ~A

操作类型:所有数值类型

说明:返回A按位取反操作的结果。结果的数值类型等于A的类型。

举例:

hive> select ~6 from lxw_dual;

-7

hive> select ~4 from lxw_dual;

-5

三、逻辑运算:

1. 逻辑与操作: AND

语法: A AND B

操作类型:boolean

说明:如果A和B均为TRUE,则为TRUE;否则为FALSE。如果A为NULL或B为NULL,则为NULL

举例:

hive> select 1 from lxw_dual where 1=1 and 2=2;

1

2. 逻辑或操作: OR

语法: A OR B

操作类型:boolean

说明:如果A为TRUE,或者B为TRUE,或者A和B均为TRUE,则为TRUE;否则为FALSE

举例:

hive> select 1 from lxw_dual where 1=2 or 2=2;

1

3. 逻辑非操作: NOT

语法: NOT A

操作类型:boolean

说明:如果A为FALSE,或者A为NULL,则为TRUE;否则为FALSE

举例:

hive> select 1 from lxw_dual where not 1=2;

1

四、数值计算

1. 取整函数: round

语法: round(double a)

返回值: BIGINT

说明:返回double类型的整数值部分(遵循四舍五入)

举例:

hive> select round(3.1415926) from lxw_dual;

3

hive> select round(3.5) from lxw_dual;

4

hive> create table lxw_dual as select round(9542.158) fromlxw_dual;

hive> describe lxw_dual;

_c0     bigint

2. 指定精度取整函数: round

语法: round(double a, int d)

返回值: DOUBLE

说明:返回指定精度d的double类型

举例:

hive> select round(3.1415926,4) from lxw_dual;

3.1416

3. 向下取整函数: floor

语法: floor(double a)

返回值: BIGINT

说明:返回等于或者小于该double变量的最大的整数

举例:

hive> select floor(3.1415926) from lxw_dual;

3

hive> select floor(25) from lxw_dual;

25

4. 向上取整函数: ceil

语法: ceil(double a)

返回值: BIGINT

说明:返回等于或者大于该double变量的最小的整数

举例:

hive> select ceil(3.1415926) from lxw_dual;

4

hive> select ceil(46) from lxw_dual;

46

5. 向上取整函数: ceiling

语法: ceiling(double a)

返回值: BIGINT

说明:与ceil功能相同

举例:

hive> select ceiling(3.1415926) from lxw_dual;

4

hive> select ceiling(46) from lxw_dual;

46

6. 取随机数函数: rand

语法: rand(),rand(int seed)

返回值: double

说明:返回一个0到1范围内的随机数。如果指定种子seed,则会等到一个稳定的随机数序列

举例:

hive> select rand() from lxw_dual;

0.5577432776034763

hive> select rand() from lxw_dual;

0.6638336467363424

hive> select rand(100) from lxw_dual;

0.7220096548596434

hive> select rand(100) from lxw_dual;

0.7220096548596434

7. 自然指数函数: exp

语法: exp(double a)

返回值: double

说明:返回自然对数e的a次方

举例:

hive> select exp(2) from lxw_dual;

7.38905609893065

自然对数函数: ln

语法: ln(double a)

返回值: double

说明:返回a的自然对数

举例:

hive> select ln(7.38905609893065) from lxw_dual;

2.0

8. 以10为底对数函数: log10

语法: log10(double a)

返回值: double

说明:返回以10为底的a的对数

举例:

hive> select log10(100) from lxw_dual;

2.0

9. 以2为底对数函数: log2

语法: log2(double a)

返回值: double

说明:返回以2为底的a的对数

举例:

hive> select log2(8) from lxw_dual;

3.0

10. 对数函数: log

语法: log(double base, double a)

返回值: double

说明:返回以base为底的a的对数

举例:

hive> select log(4,256) from lxw_dual;

4.0

11. 幂运算函数: pow

语法: pow(double a, double p)

返回值: double

说明:返回a的p次幂

举例:

hive> select pow(2,4) from lxw_dual;

16.0

12. 幂运算函数: power

语法: power(double a, double p)

返回值: double

说明:返回a的p次幂,与pow功能相同

举例:

hive> select power(2,4) from lxw_dual;

16.0

13. 开平方函数: sqrt

语法: sqrt(double a)

返回值: double

说明:返回a的平方根

举例:

hive> select sqrt(16) from lxw_dual;

4.0

14. 二进制函数: bin

语法: bin(BIGINT a)

返回值: string

说明:返回a的二进制代码表示

举例:

hive> select bin(7) from lxw_dual;

111

15. 十六进制函数: hex

语法: hex(BIGINT a)

返回值: string

说明:如果变量是int类型,那么返回a的十六进制表示;如果变量是string类型,则返回该字符串的十六进制表示

举例:

hive> select hex(17) from lxw_dual;

11

hive> select hex(‘abc’) from lxw_dual;

616263

16. 反转十六进制函数: unhex

语法: unhex(string a)

返回值: string

说明:返回该十六进制字符串所代码的字符串

举例:

hive> select unhex(‘616263’) from lxw_dual;

abc

hive> select unhex(‘11’) from lxw_dual;

-

hive> select unhex(616263) from lxw_dual;

abc

17. 进制转换函数: conv

语法: conv(BIGINT num, int from_base, int to_base)

返回值: string

说明:将数值num从from_base进制转化到to_base进制

举例:

hive> select conv(17,10,16) from lxw_dual;

11

hive> select conv(17,10,2) from lxw_dual;

10001

18. 绝对值函数: abs

语法: abs(double a)  abs(int a)

返回值: double       int

说明:返回数值a的绝对值

举例:

hive> select abs(-3.9) from lxw_dual;

3.9

hive> select abs(10.9) from lxw_dual;

10.9

19. 正取余函数: pmod

语法: pmod(int a, int b),pmod(double a, double b)

返回值: int double

说明:返回正的a除以b的余数

举例:

hive> select pmod(9,4) from lxw_dual;

1

hive> select pmod(-9,4) from lxw_dual;

3

20. 正弦函数: sin

语法: sin(double a)

返回值: double

说明:返回a的正弦值

举例:

hive> select sin(0.8) from lxw_dual;

0.7173560908995228

21. 反正弦函数: asin

语法: asin(double a)

返回值: double

说明:返回a的反正弦值

举例:

hive> select asin(0.7173560908995228) from lxw_dual;

0.8

22. 余弦函数: cos

语法: cos(double a)

返回值: double

说明:返回a的余弦值

举例:

hive> select cos(0.9) from lxw_dual;

0.6216099682706644

23. 反余弦函数: acos

语法: acos(double a)

返回值: double

说明:返回a的反余弦值

举例:

hive> select acos(0.6216099682706644) from lxw_dual;

0.9

24. positive函数: positive

语法: positive(int a), positive(double a)

返回值: int double

说明:返回a

举例:

hive> select positive(-10) from lxw_dual;

-10

hive> select positive(12) from lxw_dual;

12

25. negative函数: negative

语法: negative(int a), negative(double a)

返回值: int double

说明:返回-a

举例:

hive> select negative(-5) from lxw_dual;

5

hive> select negative(8) from lxw_dual;

-8

五、日期函数

1. UNIX时间戳转日期函数:from_unixtime

语法: from_unixtime(bigint unixtime[, string format])

返回值: string

说明:转化UNIX时间戳(从1970-01-01 00:00:00 UTC到指定时间的秒数)到当前时区的时间格式

举例:

hive> select from_unixtime(1323308943,'yyyyMMdd') fromlxw_dual;

20111208

2. 获取当前UNIX时间戳函数:unix_timestamp

语法: unix_timestamp()

返回值: bigint

说明:获得当前时区的UNIX时间戳

举例:

hive> select unix_timestamp() from lxw_dual;

1323309615

3. 日期转UNIX时间戳函数:unix_timestamp

语法: unix_timestamp(string date)

返回值: bigint

说明:转换格式为"yyyy-MM-ddHH:mm:ss"的日期到UNIX时间戳。如果转化失败,则返回0。

举例:

hive> select unix_timestamp('2011-12-07 13:01:03') from lxw_dual;

1323234063

4. 指定格式日期转UNIX时间戳函数:unix_timestamp

语法: unix_timestamp(string date, string pattern)

返回值: bigint

说明:转换pattern格式的日期到UNIX时间戳。如果转化失败,则返回0。

举例:

hive> select unix_timestamp('20111207 13:01:03','yyyyMMddHH:mm:ss') from lxw_dual;

1323234063

5. 日期时间转日期函数:to_date

语法: to_date(string timestamp)

返回值: string

说明:返回日期时间字段中的日期部分。

举例:

hive> select to_date('2011-12-08 10:03:01') from lxw_dual;

2011-12-08

6. 日期转年函数: year

语法: year(string date)

返回值: int

说明:返回日期中的年。

举例:

hive> select year('2011-12-08 10:03:01') from lxw_dual;

2011

hive> select year('2012-12-08') from lxw_dual;

2012

7. 日期转月函数: month

语法: month (string date)

返回值: int

说明:返回日期中的月份。

举例:

hive> select month('2011-12-08 10:03:01') from lxw_dual;

12

hive> select month('2011-08-08') from lxw_dual;

8

8. 日期转天函数: day

语法: day (string date)

返回值: int

说明:返回日期中的天。

举例:

hive> select day('2011-12-08 10:03:01') from lxw_dual;

8

hive> select day('2011-12-24') from lxw_dual;

24

9. 日期转小时函数: hour

语法: hour (string date)

返回值: int

说明:返回日期中的小时。

举例:

hive> select hour('2011-12-08 10:03:01') from lxw_dual;

10

10. 日期转分钟函数: minute

语法: minute (string date)

返回值: int

说明:返回日期中的分钟。

举例:

hive> select minute('2011-12-08 10:03:01') from lxw_dual;

3

11. 日期转秒函数: second

语法: second (string date)

返回值: int

说明:返回日期中的秒。

举例:

hive> select second('2011-12-08 10:03:01') from lxw_dual;

1

12. 日期转周函数:weekofyear

语法: weekofyear (string date)

返回值: int

说明:返回日期在当前的周数。

举例:

hive> select weekofyear('2011-12-08 10:03:01') from lxw_dual;

49

13. 日期比较函数: datediff

语法: datediff(string enddate, string startdate)

返回值: int

说明:返回结束日期减去开始日期的天数。

举例:

hive> select datediff('2012-12-08','2012-05-09') from lxw_dual;

213

14. 日期增加函数: date_add

语法: date_add(string startdate, int days)

返回值: string

说明:返回开始日期startdate增加days天后的日期。

举例:

hive> select date_add('2012-12-08',10) from lxw_dual;

2012-12-18

15. 日期减少函数: date_sub

语法: date_sub (string startdate, int days)

返回值: string

说明:返回开始日期startdate减少days天后的日期。

举例:

hive> select date_sub('2012-12-08',10) from lxw_dual;

2012-11-28

六、条件函数

1. If函数: if

语法: if(boolean testCondition, T valueTrue, T valueFalseOrNull)

返回值: T

说明: 当条件testCondition为TRUE时,返回valueTrue;否则返回valueFalseOrNull

举例:

hive> select if(1=2,100,200) from lxw_dual;

200

hive> select if(1=1,100,200) from lxw_dual;

100

2. 非空查找函数: COALESCE

语法: COALESCE(T v1, T v2,…)

返回值: T

说明: 返回参数中的第一个非空值;如果所有值都为NULL,那么返回NULL

举例:

hive> select COALESCE(null,'100','50′) from lxw_dual;

100

3. 条件判断函数:CASE

语法: CASE a WHEN b THEN c [WHEN d THEN e]* [ELSE f] END

返回值: T

说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f

举例:

hive> Select case 100 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;

mary

hive> Select case 200 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;

tim

4. 条件判断函数:CASE

语法: CASE WHEN a THEN b [WHEN c THEN d]* [ELSE e] END

返回值: T

说明:如果a为TRUE,则返回b;如果c为TRUE,则返回d;否则返回e

举例:

hive> select case when 1=2 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;

mary

hive> select case when 1=1 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;

tom

七、字符串函数

1. 字符串长度函数:length

语法: length(string A)

返回值: int

说明:返回字符串A的长度

举例:

hive> select length('abcedfg') from lxw_dual;

7

2. 字符串反转函数:reverse

语法: reverse(string A)

返回值: string

说明:返回字符串A的反转结果

举例:

hive> select reverse(abcedfg’) from lxw_dual;

gfdecba

3. 字符串连接函数:concat

语法: concat(string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,支持任意个输入字符串

举例:

hive> select concat(‘abc’,'def’,'gh’) from lxw_dual;

abcdefgh

4. 带分隔符字符串连接函数:concat_ws

语法: concat_ws(string SEP, string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符

举例:

hive> select concat_ws(',','abc','def','gh') from lxw_dual;

abc,def,gh

5. 字符串截取函数:substr,substring

语法: substr(string A, int start),substring(string A, int start)

返回值: string

说明:返回字符串A从start位置到结尾的字符串

举例:

hive> select substr('abcde',3) from lxw_dual;

cde

hive> select substring('abcde',3) from lxw_dual;

cde

hive>  selectsubstr('abcde',-1) from lxw_dual; (和Oracle相同)

e

6. 字符串截取函数:substr,substring

语法: substr(string A, int start, int len),substring(string A, intstart, int len)

返回值: string

说明:返回字符串A从start位置开始,长度为len的字符串

举例:

hive> select substr('abcde',3,2) from lxw_dual;

cd

hive> select substring('abcde',3,2) from lxw_dual;

cd

hive>select substring('abcde',-2,2) from lxw_dual;

de

7. 字符串转大写函数:upper,ucase

语法: upper(string A) ucase(string A)

返回值: string

说明:返回字符串A的大写格式

举例:

hive> select upper('abSEd') from lxw_dual;

hive> select ucase('abSEd') from lxw_dual;

8. 字符串转小写函数:lower,lcase

语法: lower(string A) lcase(string A)

返回值: string

说明:返回字符串A的小写格式

举例:

hive> select lower('abSEd') from lxw_dual;

absed

hive> select lcase('abSEd') from lxw_dual;

absed

9. 去空格函数:trim

语法: trim(string A)

返回值: string

说明:去除字符串两边的空格

举例:

hive> select trim(' abc ') from lxw_dual;

abc

10. 左边去空格函数:ltrim

语法: ltrim(string A)

返回值: string

说明:去除字符串左边的空格

举例:

hive> select ltrim(' abc ') from lxw_dual;

abc

11. 右边去空格函数:rtrim

语法: rtrim(string A)

返回值: string

说明:去除字符串右边的空格

举例:

hive> select rtrim(' abc ') from lxw_dual;

abc

12. 正则表达式替换函数:regexp_replace

语法: regexp_replace(string A, string B, string C)

返回值: string

说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符,类似Oracle中的regexp_replace函数。

举例:

hive> select regexp_replace('foobar', 'oo|ar', '') from lxw_dual;

fb

13. 正则表达式解析函数:regexp_extract

语法: regexp_extract(string subject, string pattern, int index)

返回值: string

说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。

举例:

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 1) fromlxw_dual;

the

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 2) fromlxw_dual;

bar

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 0) fromlxw_dual;

foothebar

注意,在有些情况下要使用转义字符,下面的等号要用双竖线转义,这是java正则表达式的规则。

select data_field,

     regexp_extract(data_field,'.*?bgStart\\=([^&]+)',1) as aaa,

     regexp_extract(data_field,'.*?contentLoaded_headStart\\=([^&]+)',1) as bbb,

     regexp_extract(data_field,'.*?AppLoad2Req\\=([^&]+)',1) as ccc

     from pt_nginx_loginlog_st

     where pt = '2012-03-26'limit 2;

14. URL解析函数:parse_url

语法: parse_url(string urlString, string partToExtract [, stringkeyToExtract])

返回值: string

说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO.

举例:

hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'HOST') fromlxw_dual;

facebook.com

hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'QUERY','k1') from lxw_dual;

v1

15. json解析函数:get_json_object

语法: get_json_object(string json_string, string path)

返回值: string

说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。

举例:

hive> select  get_json_object('{"store":

>   {"fruit":\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}],

>    "bicycle":{"price":19.95,"color":"red"}

>   },

>  "email":"amy@only_for_json_udf_test.NET",

>  "owner":"amy"

> }

> ','$.owner') from lxw_dual;

amy

16. 空格字符串函数:space

语法: space(int n)

返回值: string

说明:返回长度为n的字符串

举例:

hive> select space(10) from lxw_dual;

hive> select length(space(10)) from lxw_dual;

10

17. 重复字符串函数:repeat

语法: repeat(string str, int n)

返回值: string

说明:返回重复n次后的str字符串

举例:

hive> select repeat('abc',5) from lxw_dual;

abcabcabcabcabc

18. 首字符ascii函数:ascii

语法: ascii(string str)

返回值: int

说明:返回字符串str第一个字符的ascii码

举例:

hive> select ascii('abcde') from lxw_dual;

97

19. 左补足函数:lpad

语法: lpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行左补足到len位

举例:

hive> select lpad('abc',10,'td') from lxw_dual;

tdtdtdtabc

注意:与GPoracle不同,pad不能默认

20. 右补足函数:rpad

语法: rpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行右补足到len位

举例:

hive> select rpad('abc',10,'td') from lxw_dual;

abctdtdtdt

21. 分割字符串函数: split

语法: split(string str, stringpat)

返回值: array

说明:按照pat字符串分割str,会返回分割后的字符串数组

举例:

hive> select split('abtcdtef','t') from lxw_dual;

["ab","cd","ef"]

22. 集合查找函数:find_in_set

语法: find_in_set(string str, string strList)

返回值: int

说明:返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0

举例:

hive> select find_in_set('ab','ef,ab,de') from lxw_dual;

2

hive> select find_in_set('at','ef,ab,de') from lxw_dual;

0

八、集合统计函数

1. 个数统计函数: count

语法: count(*), count(expr), count(DISTINCT expr[, expr_.])

返回值: int

说明: count(*)统计检索出的行的个数,包括NULL值的行;count(expr)返回指定字段的非空值的个数;count(DISTINCTexpr[, expr_.])返回指定字段的不同的非空值的个数

举例:

hive> select count(*) from lxw_dual;

20

hive> select count(distinct t) from lxw_dual;

10

2. 总和统计函数: sum

语法: sum(col), sum(DISTINCT col)

返回值: double

说明: sum(col)统计结果集中col的相加的结果;sum(DISTINCT col)统计结果中col不同值相加的结果

举例:

hive> select sum(t) from lxw_dual;

100

hive> select sum(distinct t) from lxw_dual;

70

3. 平均值统计函数: avg

语法: avg(col), avg(DISTINCT col)

返回值: double

说明: avg(col)统计结果集中col的平均值;avg(DISTINCT col)统计结果中col不同值相加的平均值

举例:

hive> select avg(t) from lxw_dual;

50

hive> select avg (distinct t) from lxw_dual;

30

4. 最小值统计函数: min

语法: min(col)

返回值: double

说明:统计结果集中col字段的最小值

举例:

hive> select min(t) from lxw_dual;

20

5. 最大值统计函数: max

语法: maxcol)

返回值: double

说明:统计结果集中col字段的最大值

举例:

hive> select max(t) from lxw_dual;

120

6. 非空集合总体变量函数:var_pop

语法: var_pop(col)

返回值: double

说明:统计结果集中col非空集合的总体变量(忽略null)

举例:

7. 非空集合样本变量函数:var_samp

语法: var_samp (col)

返回值: double

说明:统计结果集中col非空集合的样本变量(忽略null)

举例:

8. 总体标准偏离函数:stddev_pop

语法: stddev_pop(col)

返回值: double

说明:该函数计算总体标准偏离,并返回总体变量的平方根,其返回值与VAR_POP函数的平方根相同

举例:

9. 样本标准偏离函数:stddev_samp

语法: stddev_samp (col)

返回值: double

说明:该函数计算样本标准偏离

举例:

10.中位数函数:percentile

语法: percentile(BIGINT col, p)

返回值: double

说明:求准确的第pth个百分位数,p必须介于0和1之间,但是col字段目前只支持整数,不支持浮点数类型

举例:

11. 中位数函数:percentile

语法: percentile(BIGINT col, array(p1 [, p2]…))

返回值: array<double>

说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array<double>,其中为对应的百分位数。

举例:

select percentile(score,<0.2,0.4>) from lxw_dual;取0.2,0.4位置的数据

12. 近似中位数函数:percentile_approx

语法: percentile_approx(DOUBLE col, p [, B])

返回值: double

说明:求近似的第pth个百分位数,p必须介于0和1之间,返回类型为double,但是col字段支持浮点类型。参数B控制内存消耗的近似精度,B越大,结果的准确度越高。默认为10,000。当col字段中的distinct值的个数小于B时,结果为准确的百分位数

举例:

13. 近似中位数函数:percentile_approx

语法: percentile_approx(DOUBLE col, array(p1 [, p2]…) [, B])

返回值: array<double>

说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array<double>,其中为对应的百分位数。

举例:

14. 直方图:histogram_numeric

语法: histogram_numeric(col, b)

返回值: array<struct {‘x’,‘y’}>

说明:以b为基准计算col的直方图信息。

举例:

hive> select histogram_numeric(100,5) from lxw_dual;

[{"x":100.0,"y":1.0}]

九、复合类型构建操作

1. Map类型构建: map

语法: map (key1, value1, key2, value2,…)

说明:根据输入的key和value对构建map类型

举例:

hive> Create table lxw_test as select map('100','tom','200','mary')as t from lxw_dual;

hive> describe lxw_test;

t       map<string,string>

hive> select t from lxw_test;

{"100":"tom","200":"mary"}

2. Struct类型构建: struct

语法: struct(val1, val2, val3,…)

说明:根据输入的参数构建结构体struct类型

举例:

hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;

hive> describe lxw_test;

t       struct<col1:string,col2:string,col3:string>

hive> select t from lxw_test;

{"col1":"tom","col2":"mary","col3":"tim"}

3. array类型构建: array

语法: array(val1, val2,…)

说明:根据输入的参数构建数组array类型

举例:

hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;

hive> describe lxw_test;

t       array<string>

hive> select t from lxw_test;

["tom","mary","tim"]

十、复杂类型访问操作

1. array类型访问: A[n]

语法: A[n]

操作类型: A为array类型,n为int类型

说明:返回数组A中的第n个变量值。数组的起始下标为0。比如,A是个值为['foo', 'bar']的数组类型,那么A[0]将返回'foo',而A[1]将返回'bar'

举例:

hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;

hive> select t[0],t[1],t[2] from lxw_test;

tom     mary   tim

2. map类型访问: M[key]

语法: M[key]

操作类型: M为map类型,key为map中的key值

说明:返回map类型M中,key值为指定值的value值。比如,M是值为{'f' -> 'foo', 'b'-> 'bar', 'all' -> 'foobar'}的map类型,那么M['all']将会返回'foobar'

举例:

hive> Create table lxw_test as selectmap('100','tom','200','mary') as t from lxw_dual;

hive> select t['200'],t['100'] from lxw_test;

mary    tom

3. struct类型访问: S.x

语法: S.x

操作类型: S为struct类型

说明:返回结构体S中的x字段。比如,对于结构体struct foobar {int foo, int bar},foobar.foo返回结构体中的foo字段

举例:

hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;

hive> describe lxw_test;

t       struct<col1:string,col2:string,col3:string>

hive> select t.col1,t.col3 from lxw_test;

tom     tim

十一、复杂类型长度统计函数

1.   Map类型长度函数: size(Map<K.V>)

语法: size(Map<K.V>)

返回值: int

说明:返回map类型的长度

举例:

hive> select size(map('100','tom','101','mary')) from lxw_dual;

2

2.   array类型长度函数: size(Array<T>)

语法: size(Array<T>)

返回值: int

说明:返回array类型的长度

举例:

hive> select size(array('100','101','102','103')) from lxw_dual;

4

3.   类型转换函数

类型转换函数: cast

语法: cast(expr as <type>)

返回值: Expected "=" to follow "type"

说明:返回array类型的长度

举例:

hive> select cast(1 as bigint) from lxw_dual;

1


转载地址:http://blog.csdn.net/xiaoshunzi111/article/details/48727831

1、创建一个表,字段之间用 \t 分隔;

        Hive>create  table  student (id  int,  name  string) row  format  delimited  fields  terminated  by '\t' ;


2、将本地一个数据提交到hive里去

        hive>load data local inpath '/home/student.txt' into  table  student ;

      2.1 增加分区表数据

      alter table ZHIYOUBAO.CHECK_RECORD add  partition (years='xxxx',months='xx',days='xx') location                         '/ZYB/CHECK_RECORD/yy=xxxx/mm=xx/dd=xx/';

3、查询表里的数据:

        hive>select  *  from  student ;


4、只查询前两条:

        hive>select  * from  student  limit  2 ;


5、统计一个表的行数:

        hive>select  count(*)  from student ;


6、求一个表id字段的id 之和:

        hive>select  sum(id)  from  student ;


7、创建外部表:

        hive>create  external  table  ext_student  (id int, name string) row format delimited  fields  terminated  by  ' \t  '  location  ' /data ' ;     //这样就不必将文件放到hive里去 就可以对其进行操作了   ,只需要将文件放到hdfs上的/data目录下面。


8、内部表先有表后有数据;外部表先有数据后有表。


9、创建分区表:
        hive>create external table beauties  (id bigint, name string,  size  double)  partitioned by (nation  string)  row  format  delimited fields  terminated  by  '\t'  location  '\beauty' ;
        hive>load  data  local  inpath  '/home/b.c'  into  table  beauties  partition(nation='China') ;
        hive>alter  table  beauties  add  partition  (nation='Japan') ;
        hive>select  *  from  beauties ;

        hive>select  *  from  beauties  where  nation='China' ;           //查找某一分区的数据内容;


10、多表关联:

        hive>select  t . account ,  u . name , t . income , t . expenses , t . surplus from  user_info  u  join  (select  account ,  sum(income)  as  income ,  sum(expenses) as  expenses ,  sum(income-expenses)  as  surplus  from 

trade_detail  group  by  account)  t  on  u . account  =  t . account ;


11、存储过程没有返回值,函数有返回值


12、在linux环境下一次访问hive:

        [hh@master ~]$ hive  -e  "selcte  *  from  mytable   limit  3" ;


13、[hh@master ~]$ hive -f 1.hql


14、打印表的字段信息:

            hive>describe  yourtable ;


15、创建数据库:
        hive>create  database  financials ;

        hive>create  database  if  not  exists  financials ;


16、过滤数据库:

        hive>show  databases  like  " f . * " ;


17、添加描述信息:
        hive> create database test092302 with dbproperties ('creator'='Mark', 'date'='2015-09-23');

        hive> describe database extended test092302;


18、删除数据库:
        hive> drop database if exists human_resources;   或者

        hive> drop database human_resources;


19、删除存在表的数据库:

        hive> drop database test0923 cascade;      //在后面加上cascade关键字


20、创建数据库时添加描述信息:

        hive> create database test092302 comment 'Holds all test tables';     //使用comment,创建表时也可以用


21、去重查询:group   by的使用

        hive>select  *  from  mytable  group  by  uid ;


22、独立UID总数:

        hive>select  count(distinct(uid)) from  mytable ; (高效) 或者   hive>select  count(*) from(select  *  from mytable  group  by  uid)  a ;


23、查询频度排名(频度最高的前50):

        hive> select keyword,count(*) as cnt from sogou_1w group by keyword order by cnt desc limit 50;


24、将查询的结果放入另一个表中:
        hive> create table uid_cnt (uid string, cnt int) row format delimited fields terminated by '\t';       //先创建临时表 uid_cnt

        hive> insert overwrite table sogou.uid_cnt select uid,count(*) from sogou_1w group by uid;     //再将查询的数据结果放入临时表中

25 修改列名:
hive> alter table test
    > column ·stuname·  name string;“ · ”右上角的~键

describe test;

26 增加列:
hive> alter table test add columns(
    > height int);

hive>describe test;

27替换列:
hive> alter table test replace columns(
    > id int,
    > name string,
    > age int);

28 为表添加属性:
hive> alter table test set tblproperties (
    > 'note'='hello welcome');

show create table test;
========================================
29 创建带有分区的内部表:
hive> create table testpar(
    > id int,
    > name string,age int) PARTITIONED BY (day string)
    > ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' 
    > location '/testpar';

30 为带有分区的内部表加载数据:
hive> load data local inpath '/home/test' into table testpar 
    > partition (day='0925');

31 添加防止删除的保护:
hive> alter table testpar
    > partition (day='0925') enable no_drop;

32 测试:删除分区
hive> alter table testpar drop if exists partition (day='0925');

33 删除添加的"删除"保护:
hive> alter table testpar
    > partition (day='0925') disable no_drop;

34 添加防止查询的保护:
hive> alter table testpar
    > partition (day='0925') enable offline;

35 删除防止查询的保护:
hive> alter table testpar
    > partition (day='0925') disable offline;

select * from testpar;
================================================


36 按条件向分区表插入数据
hive>from test_1  ts  
insert into table  testpart partition (day='0920') select * where ts.age>20   
insert into table testpart partition (day='0919') select * where ts.name='xiaofang'; 

注释:

上面SQL语句分三部分
第一部分 
 from test_1  ts  从rest_1表中查询并为其添加ts别名
第二部分 
insert into table  testpart partition (day='0920') select * where ts.age>20
将test_1表中年龄大于20的数据添加到分区表testpart中新建的0920分区中.
第三部分   
insert into table testpart partition (day='0919') select * where ts.name='xiaofang'
将test_1表中名字为xiaofang的数据添加到分区表testpart中新建的0919分区中

查询结果:
hive>  select  * from  testpart;


37 向管理表中加载数据:
hive> load data local inpath '/home/test' overwrite  into table testpar partition (day='0925');

38 通过查询语句向表中插入数据:
hive> insert into table testpar
    > partition (day='0926')
    > select * from test;

hive> select * from testpar;

hive> insert into table testpar
    > partition (day='0922')
    > select * from test
    > where age >20;

hive> from test
    > insert into table testpar
    > partition (day='0921')
    > select * where age>22;

hive> from test ts
    > insert into table testpar
    > partition (day='0920')
    > select * where ts.age>20
    > insert into table testpar
    > partition (day='0919')
    > select * where ts.name='张三';

==================动态分区插入===================
39 在test表中添加一列day
hive> alter table test add columns(day string);

[hh@master ~]$ vi test
[hh@master ~]$ cat test
1    张三    20    0921
2    李四    22    0922
3    Jarrey    25    0923
40 加载数据:
hive> load data local inpath '/home/test' overwrite into table test;
动态分区(下面两种方式实现的效果是一样的):
hive>  set hive.exec.dynamic.partition=true;
hive>  set hive.exec.dynamic.partition.mode=nonstrict;
hive>  set hive.exec.max.dynamic.partitions.pernode=1000;

hive> insert into table testpar
    > partition(day)
    > select * from test;

hive> insert into table testpar
    > partition(day)
    > select id,name,age,day from test;

41单个查询语句中创建表并加载数据:(注意关键字as)
hive> create table newtest
    > as select id,name,age from test
    > where name='李四';

hive> select * from newtest;

====================导出数据======================
42 Hadoop fs –cp source_path target_path
cp
scp -r /jdk  slave://home/

注释:

scp =safety copy 即是安全模式下复制   r=recuresive 递归方式复制  即是从主目录到各个子目录依次复制

Sqoop工具(T15)

========hdfs数据加载等操作=======

43  从hdfs集群中加载数据
hive>load  data  inpath 'hdfs目录文件'  into  table  student;

44 按id降序排序
hive>select * from  student  order by id desc;


45   从hdfs集群中加载数据并为表设置指定分区
hive>load  data  input  '本地文件路径' into  table  表名  partition (分区字段=' ');


46 从本地内存中加载数据
hive>load data local inpath '本地目录文件' into  table  student;


47 按id降序排序
hive>select * from  student  order by id desc;

48 表联合查询
hive>select t.account u.name,t.income,t.expenses,t.surplus from user_info
u join (select account, sum(income) as income,sum(expenses) as expenses,sm(income_expenses)
as surplus from trade_detail group by account) on u.account=t.account;



==================数学函数:===================
Hive语句运算:
49 int类型rank加运算

hive>select rank+1 from  ext_sogou_20111230 limit 100;

50 对int字段平方
hive> select pow(rank,2) from  ext_sogou_20111230;

51  取模:(如:2对三取模)
hive>select pmod(2,3) from ext_sogou_20111230 limit 10;


==============聚合函数========================
52 统计表中所有行数
hive>select count(*) from  ext_sogou_20111230 limit 10;
*表示表中所有字段也可以设置某些或某个字段 如

hive>select count(uid,ts) from  ext_sogou_20111230 limit 10;

53. 

hive>select  sum(uid) from ext_sogou_20111230;

54 最大值&最小值

hive>select max(rank), min(rank) from ext_sogou_20111230;

55 .独立uid(去重行数)
hive>select count(distinct uid) from ext_sogou_20111230;


56强转:
hive> select cast(rank as DOUBLE) from ext_sogou_20111230 limit 10;

57  拼接:
hive>select concat(uid,url) from ext_sogou_20111230 limit 10;


=================JSON========================
58  抽取JSON对象的某一属性值
hive>select get_json_object('{"name":"xiaoming","age":"15"}','$.age') from ext_sogou_20111230 limit 5;
结果:
15

59

hive>select  get_json_object(channel,'$.age') from ext_sogou_20111230 limit 3;

=============================================
60 查找url字符串中的5位置之后字符串baidu第一次出现的位置
hive> select locate("baidu",url,5) from ext_sogou_20111230 limit 100;

61 .抽取字符串baidu中符合正则表达式url的第5个部分的子字符串
hive> select regexp_extract("baidu",url,5) from ext_sogou_20111230 limit 100; 

62  按照正则表达式"0"分割字符串uid,并将分割后的部分以字符串数组的方式返回
hive> select split(uid,"0") from ext_sogou_20111230 limit 100;
结果之一:["","875edc8a14a228","1bac1ddc","1fa18a1"]

63  对字符串url,从0处开截取长度为3的字符串,作为其子字符串
hive> select substr(url,0,3) from ext_sogou_20111230 limit 3; 

64 .将字符串url中所有的字母转换成大写字母

hive> select upper(url) from ext_sogou_20111230 limit 3;


============别名 嵌套SQL语句===============

65  复杂HQL 如别名、嵌套等

hive>select count(distinct e.uid) from (select * from ext_sogou_20111230 where
rank <=3 and order =1) e;
小括号中返回的也是一个表,它只是临时的 别名为e 

66  where  ..and  或者 where ....or   where的 两种条件查询 
 hive> select * from  ext_sogou_20111230  where rank<=3 and order =1 limit 3;
 hive> select * from  ext_sogou_20111230 where rank !=0 or order =1 limit 3;

where 
1 出现在表后  
2 可以有and  or  表达式的操作符
3 表示格式

67  浮点类型的比较 一定要强转

68  like 过滤字符串 

      它是一个标准的SQL操作符
hive> select *  from  ext_sogou_20111230  where url like '%http%' limit 10;
'%http%'意为包含 http字符串
'%http' 以http开头的字符串
'http%'一http结束字符串

69  rlike 通过Java的正则表达式过滤  *与%功能一样 

      它是hive中扩展功能的操作符
hive> select * from ext_sogou_20111230 where url rlike  ' .*http.* ' limit 3; 


=========group by============

70 Group by 语句通常会和聚合函数一起使用,按照一个或者多个对结果进行分组,然后对每个组执行聚合操作
hive>select year(ts), avg(rank) from ext_sogou_20111230 where ts like '%2011' group by year(ts);

71 对组过滤
hive> select rank ,count(*) from ext_sogou_20111230  group by rank ,order having rank >3  limit 10;


===============join==========
72 join 使用join时要选择具有独立的字段作为条件字段,否则会出现不必要的数据量
hive> select m.uid,m.keyword from ext_sogou_20111230 m join ext_sogou_20111230_limit3 n on m.uid =n.uid;


73 查搜索过"仙剑奇侠传" 的用户所搜过的关键字
hive>select  m.uid,m.keyword  from (select  distinct n.uid from
ext_sogou_20111230 where keyword like '%仙剑奇侠传%' n ) m  
where m.uid=n.uid;


74 查搜索过"仙剑奇侠传" 的用户所搜过的不包含"仙剑奇侠传"本身的关键字
hive>select m.uid,m.keyword from sogou_20111230 m join (select distinct uid from sogou_20111230 where keyword like '%仙剑奇侠传%') n on m.uid=n.uid where m.keyword not like '%仙剑奇侠传%';



75  left semi-join 左半表 semi 半挂的 半独立的
hive>select * from be where rank in(1,2,5);
hive>select  * from  ext_sogou_20111230 m left semi join  ext_sogou_20111230_limit3  n on m.rank=n.rank;

 76笛卡尔积
 如5w  1w  join  结果:5w*1w   一般不常用

77 map-side JOIN当两张表很小时使用(系统默认25MB)

 功能:其中一张表为小表  即是将小表数据JOIN到大表中
 hive>select /*+MAPJOIN(n)*/ m.uid,m.keyword,n.keyword 

 from ext_sogou_20111230 m join ext_sogou_20111230_limint3 n on m.uid=n.uid;


=====================排序=========================
78 全局排序(order by ) 和局部排序 (sort by)
hive>select * from ext_sogou_20111230 order by rank desc limit 100;

79 对sogou500w中降序排列uid次数 
hive>select uid, count(*)  as nct from ext_sogou_20111230   group by uid order by nct desc ;

80 cast()类型转换函数 
hive>select  cast(ts as bigint) from 
 ext_sogou_20111230_limit3;
 
81 UNION ALL可以将2个或多个表进行合并。

hive> select count(distinct e.uid)from(
select * from ext_sogou_20111230 where rank<11 
union all 
select * from ext_sogou_20111230_limit3 where rank < 11) e;

82
hive>select count(*) from ext_sogou_20111230_limit where keyword like '%www%';
  
83
hive> select e.url,e.keyword,count(*) from (
select * from ext_sogou_20111230 where keyword like '%www%'
)e  group by  e.url,e.keyword where instr(url,keyword) >0;

84搜索过'%仙剑奇侠传%'(模糊匹配),并且查询次数大于3的UID
 hive>select uid, count(uid) as nct from 
 ext_sogou_20111230  where keyword like '%仙剑奇侠传%'
 group by uid having nct>3 ;

================================
              视图
================================
85视图 hive只支持逻辑视图 作用降低查询复杂度
  创建视图
hive>create view sogou_view  as 
select * from ext_sogou_20111230 where rank <=3;

86 索引 
   Hive的索引需要单独创建表实现
   创建索引

hive>CREATE INDEX employees_index ON TABLE employees (name) AS 
'org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler'
WITH DEFERRED REBUILD IDXPROPERTIES('creator' = 'me','
created_at '='some  time') IN TABLE employees_index_table;


87 视图
hive>create view sogou_filter as select uid,count(*) from 
ext_sogou_20111230 where keyword like '%仙剑奇侠传%'

复杂问题解题思路:
1)分步骤,使用临时表
2)分步骤,多个视图实现
create view
3)一个复杂的SQL

create table insert overwrite table...select * from ...


=======================================
Sogou 500w数据
88

搜索长度大于256(不区分中英文),并且点击次数<3的UID
老师:
hive>select m.uid,count(*) as cnt from(select * from sogou_view  where  length(
keyword) >256) m group by m.uid having cnt<3;
自己:
select uid from sogou_view  where rank<3 and length(
keyword) >256;
hive> create view sogou_view as select * from
    ext_sogou_20111230;

89
上午7-9点之间,搜索过“赶集网”的用户,哪些用户直接点击了赶集网的URL

老师:
hive> select distinct n.uid from (select * from sogou_view where keyword ='赶集网')
and  substr(ts,9,2) in ('07','08','09')) n where n.url like '%ganjin.com%';
自己:
hive> select uid  from sogou_view where (cast(substr(ts,9,2) 
as int)>7  or cast(substr(ts,9,2) as int)<9) and url 
like '%www.ganji.com%' or keyword like '%赶集网%' ;
或者
hive>select uid  from sogou_view where substr(ts,9,2) in ('07','08','09') and url
like '%www.ganji.com%' and  keyword like '%赶集网%' ;

90
rank<3的搜索中,多少用户的点击次数>2

老师:
hive>select a.uid from (select uid,count(*) as cnt from (select * from sogou_view where
rank<3) e group by e.uid having cnt>2) a;
自己:
hive>select  uid,count(uid) as nct from sogou_view 

where rank<3  group by uid having nct>2;



=======================
        hive设计模式
=======================
20151008 
AM

1.表的划分方式:按天划分如table_2011_01_01
2.分区:hive中的分区功能很有用,
3 最原始的数据尽量少使用分区,
  经过加工后的数据可以用分区.
4 表与分区的字段不能重复
5 分区有级别 根据实际的业务自定义分区
  create table supply () partitioned by();

91  同一份数据多种处理
hive>insert overwrite table sogou_20111230_rank
select * from sogou_20111230 where rank=3;


92
hive>insert overwrite table sogou_20111230_order
select * from sogou_20111230 where order=3;

上面两句(91  92)合并成一句(93)如下

93

hive>from sogou_20111230  
insert overwrite table sogou_20111230_rank 
select * where  rank =3 
insert overwrite table sogou_20111230_order 
select * where order=3;

94 为表增加列 (只能末尾追加)

ALTER TABLE sogou_20111230 ADD COLUMNS (user_id string) ;

列的存储有两种格式ORC和RCFile

========================================
    Hive内置函数和UDF(用户自定义函数)
========================================
95 查看内置函数
hive> show functions; 

96 查看某一函数具体描述
hive>describe function 函数名;

一般聚合函数与group by 组合使用
分3种:
1 UDF(标准函数):普通函数
2 UDAF(用户自定义聚合函数):多行多列变一行
3 UDTF(用户自定义表生成函数):多行多列变多行

===========UDF操作过程==============
91 在eclipse中创建java类 如UDFZodiacSign

92 添加UDFZodiacSign的jar包

hive>add jar /home/udf.jar 

93 创建外部表如little_bigdata
hive>create external table if not exists 
little_bigdata(name string,email string,bday 
string,ip string, gender string, anum int) 
row format delimited fields terminated by ',';

94 创建zodiac作为UDFZodiacSign类的临时函数 as'包名.类名' 
hive>create temporary function zodiac as 'day1008.UDFZodiacSign';

95 查看zodiac是否OK
hive> describe function zodiac;

96 将little_bigdata表中name字段中数据传入临时函数zodiac中
hive> select zodiac(name) from little_bigdata; 

============================================

97 统计没有农产品市场的省份有哪些

马:
hive> select e.name from (
select distinct prov from product
) a right outer join province e on a.prov = e.name
where a.prov is null

98统计排名前 3 的省份共同拥有的农产品类型

1计算前三省份的名称
2计算前三省份的所有去重产品名称
3计算共同拥有的产品
数据按A  B  C  D  E 步骤计算

hive>select c.name,count(*) as ct from 
E 列出前三省相同的熟菜,并计数
(select a.prov,a.name from 
D 从A数据中比较与B中前三个相同列 的省份及其熟菜
(select prov,name from product group by prov,name
A 分组列出所有省,及其所在省的熟菜(分组就是去重)
) a 
  left semi join
(select p.prov,count(*) as cnt from 
 C 对不同省份计数 省1  number1  省2  number2
并按降序排列列出前三个省
(select prov,name from product group by prov,name
B 分组列出所有省,及其所在省的熟菜(分组就是去重)
) p 
  group by p.prov order by cnt desc limit 3
) b
  on a.prov = b.prov
 
) c group by c.name having ct > 2


-------------------------------------------------------------------------------------
hive> select (2015-age)as ag  ,sex  from car_1  where age !=null or sex !="";

hive> select m.ag,count(*) as nct from
     (select (2015-age) as ag ,sex  from car_1  where age !=null or sex !="") 
     m  group by m.ag;
--------------------------------------------------------------------------------------


=============================
  自定义Hive文件和记录格式
=============================

hive三种文件格式:textfile sequencefile  rcfile
前两种一行存储  rcfile以列存储
他们影响整个文件格式

sequencefile  与 textfile  文件格式在读取效率上
testfile更高些

默认分隔符格式/001 即是Ctr+A
stored  as  textfile 表文件的存储格式

99 创建sequencefile格式的表
hive>create  external  table sogou_20111230_seq(ts string,
uid string,keyword string,rank int,order int
,url string) row format delimited fields 
terminated by '\t' stored as sequencefile;

100 向该表中插入数据
hive>insert table sogou_20111230_seq select 
ts,uid,keyword,rank,order,url from 
sogou_20111230 limit 50000;

101 创建rcfile格式的表:基于列式存储
hive>create table sogou_20111230_rc(ts string,
uid string, keyword string,rank int, order 
int, url string) row format delimited fields
terminated by '\t' stored as rcfile;

102 向该表中插入数据
hive>insert overwrite table sogou_20111230_rc 
select ts, uid,keyword,rank,order,url
from ext_sogou_20111230 limit 50000;

103 记录格式 SerDe是序列化/反序列化的简写

104 CSV和TSV SerDe(csv内部实现各式逗号分割\n换行)


hive 记录格式:影响文件内部数据存储格式
105 XPath相关的函数
hive>SELECT xpath ('
      <a><b id="foo">bl</b>
      <b id="bar">b2</b></a>','//@id' )
      FROM car_1 LIMIT 1;


106 计算北京市的每种农产品的价格波动趋势,即计算每天价格均值,并按照时间先后顺序排列该值。
某种农产品的价格均值计算公式:
PAVG = (PM1+PM2+...+PMn-max(P)-min(P))/(N-2)
其中, P 表示价格, Mn 表示 market,即农产品市场。 PM1 表示 M1 农产品市场的该产品价
格, max(P)表示价格最大值, min(P)价格最小值。

思路:

第一步:筛选出1-5天内 时间 熟菜名称  两个字段 
第二步:用if三目运算,判断各种熟菜波动次数是否大于2次,
第三步:求平均值


hive>select m.date,m.name,if(count(*)>2,
 round((sum(m.price)-max(m.price)-min(m.price))/(count(*)-2),2),
 round(sum(m.price)/count(*),2))
from ( 
select * from product_20140101 where province='北京'
union all
select * from product_20140102 where province='北京'
union all
select * from product_20140103 where province='北京'
union all
select * from product_20140104 where province='北京'
union all
select * from product_20140105 where province='北京'
) m  
group by m.date,m.name;

107  使用简单时间序列算法, 设置 N=3,预测 1.4、 1.5 日的平均价格
hive>create table price_hg_pre0104(ptime TIMESTAMP,name STRING,price FLOAT);

hive>insert overwrite table price_hg_pre0104
select * from price_hg where day(cast(ptime as string)) < 4
union all
select cast('2014-01-04 00:00:00' as timestamp) as ptime,'黄瓜' as name,sum(price)/3 as price from price_hg where day(cast(ptime as string)) < 4

108  并计算与实际数据的平方误差和
hive>create table price_hg_pre0105(ptime TIMESTAMP,name STRING,price FLOAT);

hive>insert overwrite table price_hg_pre0105
select cast('2014-01-05 00:00:00' as timestamp) as ptime,'黄瓜' 
as name,sum(price)/3 as price from price_hg_pre where day(cast(ptime as string)) < 5
and day(cast(ptime as string)) > 1


109 表添加一列 :
hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);



110 添加一列并增加列字段注释

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

111 更改表名:
hive> ALTER TABLE events RENAME TO 3koobecaf;
112 删除列:hive> DROP TABLE pokes;

113增加、删除分区

•增加

  1. ALTER TABLE table_name ADD [IF NOT EXISTS] partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ...
  2.       partition_spec:
  3.   : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)

•删除
  1. ALTER TABLE table_name DROP partition_spec, partition_spec,...
     REPLACE则是表示替换表中所有字段。

114 重命名表
  1. ALTER TABLE table_name RENAME TO new_table_name

115 修改列的名字、类型、位置、注释:
  1. ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]

•这个命令可以允许改变列名、数据类型、注释、列位置或者它们的任意组合

116 表添加一列 :
  1. hive> ALTER TABLE pokes ADD COLUMNS (new_col INT);

117 添加一列并增加列字段注释
  1. hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT 'a comment');

118增加/更新列
  1. ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)  
复制代码

• ADD是代表新增一字段,字段位置在所有列后面(partition列前)

119   create external table logs (ip string ,name1 string,name2 string,name3 string ,name4 string ,name5  string, name6 string, name7 string, name8 string,name9 string,name10 string,name11 string) row format delimited fields  terminated by ' ';

select name1 from (select  as c  from  logs where ip ='58.214.255.146';

数据格式:

183.166.128.178 -       -       [09/Apr/2016:07:58:33   +0800]  "POST   /boss/service/newCode.htm      HTTP/1.1"       200     227     "-"     "-"
120正序:
select ip ,sum(name9) as c from logs where name3 like '[09/Apr/2016:07:55%' group by ip order by c desc;

121 逆序:
select  name6,count(1) as b from logs where name3  like '[09/Apr/2016:07:5%' group by name6 order by b asc;
122 逆序:
select  name6,count(1) as b from logs where name3  like '[09/Apr/2016:07:5%' group by name6 sort by b asc;

123取前一千行放到一个新表里

hive> insert into table hivecontain_small            
    > select * from hivecontain limit 1000;

124 更新表字段

hive>insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

125 截取表字段部分值并插入新表

hive> insert table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

126.tourist_consume_details 用户消费信息(金额、订单数、游玩人次)

select link_name, sex, city ,tel, certificate_no ,sum(close_total_price) as total_price ,sum(popnum) as popnum,count(tourname) as  tournum from order_raw_info 
group by link_name,sex,city ,tel,certificate_no;

127.bucketed_user 分桶查询随机id

select * from bucketed_user  TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand())

128.bucketed_user 创建带桶的外部表

create external  table if not exists  bucketed_user2(id int,name string) clustered by (id) sorted by(name) into 4 
buckets row format delimited fields terminated by ',' stored as textfile location  '/kafka/' ;

129.province_city_scenic_per_nums 表字段的截取

select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

130.province_city_scenic_per_nums 表字段更新(如0.001242更新为0.001)

insert overwrite table province_city_scenic_per_nums select spot_name, spot_city, substring(round(per,4),0,6) ,nums from province_city_scenic_per_nums ;

131.改表字段

alter table scenic_tour_info  change `spotname` spot_name string;

132.split使用

select split("13901888346","1390188")[1] from quyu_visit_info limit 10;

133.quyu_visit_info 按条件插入表数据

insert into table quyu_visit_info  select u.visitor_id, u.tel, u.city from solo_mobile_quyu u limit 100;

134.tourt_ype_date_total (new) 景区类型(按时间分组)游客量统计

 select * from(
   select  p.date, p.tour_type,count(p.date) total
   from (
          select tour_type, substr(occ_date, 0,4) as date  
          from scenic_tour_info ) p 
   where p.date like '201%' 
   group by p.tour_type, p.date 
   order by p.date desc ) t 
          where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016';

135.date_spotprovince_type_total 按省份统计 景区类型(按时间分组)游客量统计

 select * from(
   select  p.date, p.spot_province, p.tour_type as scenic_type,count(p.date) total
   from (
          select spot_province,  tour_type, substr(occ_date, 0,4) as date  
          from scenic_tour_info ) p 
   where p.date like '201%' 
   group by  p.spot_province,p.tour_type, p.date 
   order by p.date desc ) t 
          where t.date='2013' or t.date='2014' or t.date='2015' or t.date='2016' ;

136.scenic_city_province_per_nums 统计某省各景区客流量的比重(占该省比重)及其客流量

select distinct p.spot_name, p.spot_city, (p.nums/5358582) per  ,p.nums
from province_city_scenic_nums p join province_tour_nums  c 
on  p.spot_province='浙江省' 
order by per desc 

137.表重命名

ALTER TABLE tour_info_detail RENAME TO new_name;  scenic_info_detail  ;

138.rename_ziduan 重命名表字段名

alter table scenic_info_detail  change  `proname` spotprovince string;

下面引用:http://blog.csdn.NET/wisgood/article/details/17376393;感谢作者:wisgood

常用函数:

一、关系运算:

1. 等值比较: =

         语法:A=B

         操作类型:所有基本类型

         描述:如果表达式A与表达式B相等,则为TRUE;否则为FALSE

         举例:

         Hive>select 1 from lxw_dual where 1=1;

         1

2. 不等值比较: <>

         语法: A <> B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A与表达式B不相等,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 <> 2;

1

3.小于比较: <

         语法: A < B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 < 2;

1

4. 小于等于比较: <=

语法: A <= B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A小于或者等于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 <= 1;

1

5. 大于比较: >

语法: A > B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 2 > 1;

1

6. 大于等于比较: >=

语法: A >= B

操作类型:所有基本类型

描述:如果表达式A为NULL,或者表达式B为NULL,返回NULL;如果表达式A大于或者等于表达式B,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where 1 >= 1;

1

注意:String的比较要注意(常用的时间比较可以先to_date之后再比较)

hive> select* from lxw_dual;

201111120900:00:00    2011111209

hive> selecta,b,a<b,a>b,a=b from lxw_dual;

201111120900:00:00    2011111209      false   true    false

7. 空值判断: IS NULL

语法: A IS NULL

操作类型:所有类型

描述:如果表达式A的值为NULL,则为TRUE;否则为FALSE

举例:

hive> select1 from lxw_dual where null is null;

1

8. 非空判断: IS NOTNULL

语法: A IS NOT NULL

操作类型:所有类型

描述:如果表达式A的值为NULL,则为FALSE;否则为TRUE

举例:

hive> select1 from lxw_dual where 1 is not null;

1

9. LIKE比较: LIKE

语法: A LIKE B

操作类型: strings

描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合表达式B  的正则语法,则为TRUE;否则为FALSE。B中字符”_”表示任意单个字符,而字符”%”表示任意数量的字符。

举例:

hive> select1 from lxw_dual where 'football' like 'foot%';

1

hive> select1 from lxw_dual where 'football' like 'foot____';

1

注意:否定比较时候用NOT ALIKE B

hive> select1 from lxw_dual where NOT 'football' like 'fff%';

1

10. JAVA的LIKE操作: RLIKE

语法: A RLIKE B

操作类型: strings

描述:如果字符串A或者字符串B为NULL,则返回NULL;如果字符串A符合Java正则表达式B的正则语法,则为TRUE;否则为FALSE。

举例:

hive> select1 from lxw_dual where 'footbar’ rlike '^f.*r$’;

1

注意:判断一个字符串是否全为数字:

hive>select 1from lxw_dual where '123456' rlike '^\\d+$';

1

hive> select1 from lxw_dual where '123456aa' rlike '^\\d+$';

11. REGEXP操作: REGEXP

语法: A REGEXP B

操作类型: strings

描述:功能与RLIKE相同

举例:

hive> select1 from lxw_dual where 'footbar' REGEXP '^f.*r$';

1

二、数学运算:

1. 加法操作: +

语法: A + B

操作类型:所有数值类型

说明:返回A与B相加的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int + int 一般结果为int类型,而int + double一般结果为double类型

举例:

hive> select1 + 9 from lxw_dual;

10

hive> createtable lxw_dual as select 1 + 1.2 from lxw_dual;

hive> describelxw_dual;

_c0     double

2. 减法操作: -

语法: A– B

操作类型:所有数值类型

说明:返回A与B相减的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。比如,int– int 一般结果为int类型,而int– double 一般结果为double类型

举例:

hive> select10 – 5 from lxw_dual;

5

hive> createtable lxw_dual as select 5.6 – 4 from lxw_dual;

hive>describe lxw_dual;

_c0     double

3. 乘法操作: *

语法: A * B

操作类型:所有数值类型

说明:返回A与B相乘的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。注意,如果A乘以B的结果超过默认结果类型的数值范围,则需要通过cast将结果转换成范围更大的数值类型

举例:

hive> select40 * 5 from lxw_dual;

200

4. 除法操作: /

语法: A / B

操作类型:所有数值类型

说明:返回A除以B的结果。结果的数值类型为double

举例:

hive> select40 / 5 from lxw_dual;

8.0

注意:hive中最高精度的数据类型是double,只精确到小数点后16位,在做除法运算的时候要特别注意

hive>select ceil(28.0/6.999999999999999999999) from lxw_duallimit 1;   

结果为4

hive>select ceil(28.0/6.99999999999999) from lxw_dual limit1;          

结果为5

5. 取余操作: %

语法: A % B

操作类型:所有数值类型

说明:返回A除以B的余数。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 41 % 5 from lxw_dual;

1

hive> select 8.4 % 4 from lxw_dual;

0.40000000000000036

注意:精度在hive中是个很大的问题,类似这样的操作最好通过round指定精度

hive> select round(8.4 % 4 , 2) from lxw_dual;

0.4

6. 位与操作: &

语法: A & B

操作类型:所有数值类型

说明:返回A和B按位进行与操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 & 8 from lxw_dual;

0

hive> select 6 & 4 from lxw_dual;

4

7. 位或操作: |

语法: A | B

操作类型:所有数值类型

说明:返回A和B按位进行或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 | 8 from lxw_dual;

12

hive> select 6 | 8 from lxw_dual;

14

8. 位异或操作: ^

语法: A ^ B

操作类型:所有数值类型

说明:返回A和B按位进行异或操作的结果。结果的数值类型等于A的类型和B的类型的最小父类型(详见数据类型的继承关系)。

举例:

hive> select 4 ^ 8 from lxw_dual;

12

hive> select 6 ^ 4 from lxw_dual;

2

9.位取反操作: ~

语法: ~A

操作类型:所有数值类型

说明:返回A按位取反操作的结果。结果的数值类型等于A的类型。

举例:

hive> select ~6 from lxw_dual;

-7

hive> select ~4 from lxw_dual;

-5

三、逻辑运算:

1. 逻辑与操作: AND

语法: A AND B

操作类型:boolean

说明:如果A和B均为TRUE,则为TRUE;否则为FALSE。如果A为NULL或B为NULL,则为NULL

举例:

hive> select 1 from lxw_dual where 1=1 and 2=2;

1

2. 逻辑或操作: OR

语法: A OR B

操作类型:boolean

说明:如果A为TRUE,或者B为TRUE,或者A和B均为TRUE,则为TRUE;否则为FALSE

举例:

hive> select 1 from lxw_dual where 1=2 or 2=2;

1

3. 逻辑非操作: NOT

语法: NOT A

操作类型:boolean

说明:如果A为FALSE,或者A为NULL,则为TRUE;否则为FALSE

举例:

hive> select 1 from lxw_dual where not 1=2;

1

四、数值计算

1. 取整函数: round

语法: round(double a)

返回值: BIGINT

说明:返回double类型的整数值部分(遵循四舍五入)

举例:

hive> select round(3.1415926) from lxw_dual;

3

hive> select round(3.5) from lxw_dual;

4

hive> create table lxw_dual as select round(9542.158) fromlxw_dual;

hive> describe lxw_dual;

_c0     bigint

2. 指定精度取整函数: round

语法: round(double a, int d)

返回值: DOUBLE

说明:返回指定精度d的double类型

举例:

hive> select round(3.1415926,4) from lxw_dual;

3.1416

3. 向下取整函数: floor

语法: floor(double a)

返回值: BIGINT

说明:返回等于或者小于该double变量的最大的整数

举例:

hive> select floor(3.1415926) from lxw_dual;

3

hive> select floor(25) from lxw_dual;

25

4. 向上取整函数: ceil

语法: ceil(double a)

返回值: BIGINT

说明:返回等于或者大于该double变量的最小的整数

举例:

hive> select ceil(3.1415926) from lxw_dual;

4

hive> select ceil(46) from lxw_dual;

46

5. 向上取整函数: ceiling

语法: ceiling(double a)

返回值: BIGINT

说明:与ceil功能相同

举例:

hive> select ceiling(3.1415926) from lxw_dual;

4

hive> select ceiling(46) from lxw_dual;

46

6. 取随机数函数: rand

语法: rand(),rand(int seed)

返回值: double

说明:返回一个0到1范围内的随机数。如果指定种子seed,则会等到一个稳定的随机数序列

举例:

hive> select rand() from lxw_dual;

0.5577432776034763

hive> select rand() from lxw_dual;

0.6638336467363424

hive> select rand(100) from lxw_dual;

0.7220096548596434

hive> select rand(100) from lxw_dual;

0.7220096548596434

7. 自然指数函数: exp

语法: exp(double a)

返回值: double

说明:返回自然对数e的a次方

举例:

hive> select exp(2) from lxw_dual;

7.38905609893065

自然对数函数: ln

语法: ln(double a)

返回值: double

说明:返回a的自然对数

举例:

hive> select ln(7.38905609893065) from lxw_dual;

2.0

8. 以10为底对数函数: log10

语法: log10(double a)

返回值: double

说明:返回以10为底的a的对数

举例:

hive> select log10(100) from lxw_dual;

2.0

9. 以2为底对数函数: log2

语法: log2(double a)

返回值: double

说明:返回以2为底的a的对数

举例:

hive> select log2(8) from lxw_dual;

3.0

10. 对数函数: log

语法: log(double base, double a)

返回值: double

说明:返回以base为底的a的对数

举例:

hive> select log(4,256) from lxw_dual;

4.0

11. 幂运算函数: pow

语法: pow(double a, double p)

返回值: double

说明:返回a的p次幂

举例:

hive> select pow(2,4) from lxw_dual;

16.0

12. 幂运算函数: power

语法: power(double a, double p)

返回值: double

说明:返回a的p次幂,与pow功能相同

举例:

hive> select power(2,4) from lxw_dual;

16.0

13. 开平方函数: sqrt

语法: sqrt(double a)

返回值: double

说明:返回a的平方根

举例:

hive> select sqrt(16) from lxw_dual;

4.0

14. 二进制函数: bin

语法: bin(BIGINT a)

返回值: string

说明:返回a的二进制代码表示

举例:

hive> select bin(7) from lxw_dual;

111

15. 十六进制函数: hex

语法: hex(BIGINT a)

返回值: string

说明:如果变量是int类型,那么返回a的十六进制表示;如果变量是string类型,则返回该字符串的十六进制表示

举例:

hive> select hex(17) from lxw_dual;

11

hive> select hex(‘abc’) from lxw_dual;

616263

16. 反转十六进制函数: unhex

语法: unhex(string a)

返回值: string

说明:返回该十六进制字符串所代码的字符串

举例:

hive> select unhex(‘616263’) from lxw_dual;

abc

hive> select unhex(‘11’) from lxw_dual;

-

hive> select unhex(616263) from lxw_dual;

abc

17. 进制转换函数: conv

语法: conv(BIGINT num, int from_base, int to_base)

返回值: string

说明:将数值num从from_base进制转化到to_base进制

举例:

hive> select conv(17,10,16) from lxw_dual;

11

hive> select conv(17,10,2) from lxw_dual;

10001

18. 绝对值函数: abs

语法: abs(double a)  abs(int a)

返回值: double       int

说明:返回数值a的绝对值

举例:

hive> select abs(-3.9) from lxw_dual;

3.9

hive> select abs(10.9) from lxw_dual;

10.9

19. 正取余函数: pmod

语法: pmod(int a, int b),pmod(double a, double b)

返回值: int double

说明:返回正的a除以b的余数

举例:

hive> select pmod(9,4) from lxw_dual;

1

hive> select pmod(-9,4) from lxw_dual;

3

20. 正弦函数: sin

语法: sin(double a)

返回值: double

说明:返回a的正弦值

举例:

hive> select sin(0.8) from lxw_dual;

0.7173560908995228

21. 反正弦函数: asin

语法: asin(double a)

返回值: double

说明:返回a的反正弦值

举例:

hive> select asin(0.7173560908995228) from lxw_dual;

0.8

22. 余弦函数: cos

语法: cos(double a)

返回值: double

说明:返回a的余弦值

举例:

hive> select cos(0.9) from lxw_dual;

0.6216099682706644

23. 反余弦函数: acos

语法: acos(double a)

返回值: double

说明:返回a的反余弦值

举例:

hive> select acos(0.6216099682706644) from lxw_dual;

0.9

24. positive函数: positive

语法: positive(int a), positive(double a)

返回值: int double

说明:返回a

举例:

hive> select positive(-10) from lxw_dual;

-10

hive> select positive(12) from lxw_dual;

12

25. negative函数: negative

语法: negative(int a), negative(double a)

返回值: int double

说明:返回-a

举例:

hive> select negative(-5) from lxw_dual;

5

hive> select negative(8) from lxw_dual;

-8

五、日期函数

1. UNIX时间戳转日期函数:from_unixtime

语法: from_unixtime(bigint unixtime[, string format])

返回值: string

说明:转化UNIX时间戳(从1970-01-01 00:00:00 UTC到指定时间的秒数)到当前时区的时间格式

举例:

hive> select from_unixtime(1323308943,'yyyyMMdd') fromlxw_dual;

20111208

2. 获取当前UNIX时间戳函数:unix_timestamp

语法: unix_timestamp()

返回值: bigint

说明:获得当前时区的UNIX时间戳

举例:

hive> select unix_timestamp() from lxw_dual;

1323309615

3. 日期转UNIX时间戳函数:unix_timestamp

语法: unix_timestamp(string date)

返回值: bigint

说明:转换格式为"yyyy-MM-ddHH:mm:ss"的日期到UNIX时间戳。如果转化失败,则返回0。

举例:

hive> select unix_timestamp('2011-12-07 13:01:03') from lxw_dual;

1323234063

4. 指定格式日期转UNIX时间戳函数:unix_timestamp

语法: unix_timestamp(string date, string pattern)

返回值: bigint

说明:转换pattern格式的日期到UNIX时间戳。如果转化失败,则返回0。

举例:

hive> select unix_timestamp('20111207 13:01:03','yyyyMMddHH:mm:ss') from lxw_dual;

1323234063

5. 日期时间转日期函数:to_date

语法: to_date(string timestamp)

返回值: string

说明:返回日期时间字段中的日期部分。

举例:

hive> select to_date('2011-12-08 10:03:01') from lxw_dual;

2011-12-08

6. 日期转年函数: year

语法: year(string date)

返回值: int

说明:返回日期中的年。

举例:

hive> select year('2011-12-08 10:03:01') from lxw_dual;

2011

hive> select year('2012-12-08') from lxw_dual;

2012

7. 日期转月函数: month

语法: month (string date)

返回值: int

说明:返回日期中的月份。

举例:

hive> select month('2011-12-08 10:03:01') from lxw_dual;

12

hive> select month('2011-08-08') from lxw_dual;

8

8. 日期转天函数: day

语法: day (string date)

返回值: int

说明:返回日期中的天。

举例:

hive> select day('2011-12-08 10:03:01') from lxw_dual;

8

hive> select day('2011-12-24') from lxw_dual;

24

9. 日期转小时函数: hour

语法: hour (string date)

返回值: int

说明:返回日期中的小时。

举例:

hive> select hour('2011-12-08 10:03:01') from lxw_dual;

10

10. 日期转分钟函数: minute

语法: minute (string date)

返回值: int

说明:返回日期中的分钟。

举例:

hive> select minute('2011-12-08 10:03:01') from lxw_dual;

3

11. 日期转秒函数: second

语法: second (string date)

返回值: int

说明:返回日期中的秒。

举例:

hive> select second('2011-12-08 10:03:01') from lxw_dual;

1

12. 日期转周函数:weekofyear

语法: weekofyear (string date)

返回值: int

说明:返回日期在当前的周数。

举例:

hive> select weekofyear('2011-12-08 10:03:01') from lxw_dual;

49

13. 日期比较函数: datediff

语法: datediff(string enddate, string startdate)

返回值: int

说明:返回结束日期减去开始日期的天数。

举例:

hive> select datediff('2012-12-08','2012-05-09') from lxw_dual;

213

14. 日期增加函数: date_add

语法: date_add(string startdate, int days)

返回值: string

说明:返回开始日期startdate增加days天后的日期。

举例:

hive> select date_add('2012-12-08',10) from lxw_dual;

2012-12-18

15. 日期减少函数: date_sub

语法: date_sub (string startdate, int days)

返回值: string

说明:返回开始日期startdate减少days天后的日期。

举例:

hive> select date_sub('2012-12-08',10) from lxw_dual;

2012-11-28

六、条件函数

1. If函数: if

语法: if(boolean testCondition, T valueTrue, T valueFalseOrNull)

返回值: T

说明: 当条件testCondition为TRUE时,返回valueTrue;否则返回valueFalseOrNull

举例:

hive> select if(1=2,100,200) from lxw_dual;

200

hive> select if(1=1,100,200) from lxw_dual;

100

2. 非空查找函数: COALESCE

语法: COALESCE(T v1, T v2,…)

返回值: T

说明: 返回参数中的第一个非空值;如果所有值都为NULL,那么返回NULL

举例:

hive> select COALESCE(null,'100','50′) from lxw_dual;

100

3. 条件判断函数:CASE

语法: CASE a WHEN b THEN c [WHEN d THEN e]* [ELSE f] END

返回值: T

说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f

举例:

hive> Select case 100 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;

mary

hive> Select case 200 when 50 then 'tom' when 100 then 'mary'else 'tim' end from lxw_dual;

tim

4. 条件判断函数:CASE

语法: CASE WHEN a THEN b [WHEN c THEN d]* [ELSE e] END

返回值: T

说明:如果a为TRUE,则返回b;如果c为TRUE,则返回d;否则返回e

举例:

hive> select case when 1=2 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;

mary

hive> select case when 1=1 then 'tom' when 2=2 then 'mary' else'tim' end from lxw_dual;

tom

七、字符串函数

1. 字符串长度函数:length

语法: length(string A)

返回值: int

说明:返回字符串A的长度

举例:

hive> select length('abcedfg') from lxw_dual;

7

2. 字符串反转函数:reverse

语法: reverse(string A)

返回值: string

说明:返回字符串A的反转结果

举例:

hive> select reverse(abcedfg’) from lxw_dual;

gfdecba

3. 字符串连接函数:concat

语法: concat(string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,支持任意个输入字符串

举例:

hive> select concat(‘abc’,'def’,'gh’) from lxw_dual;

abcdefgh

4. 带分隔符字符串连接函数:concat_ws

语法: concat_ws(string SEP, string A, string B…)

返回值: string

说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符

举例:

hive> select concat_ws(',','abc','def','gh') from lxw_dual;

abc,def,gh

5. 字符串截取函数:substr,substring

语法: substr(string A, int start),substring(string A, int start)

返回值: string

说明:返回字符串A从start位置到结尾的字符串

举例:

hive> select substr('abcde',3) from lxw_dual;

cde

hive> select substring('abcde',3) from lxw_dual;

cde

hive>  selectsubstr('abcde',-1) from lxw_dual; (和Oracle相同)

e

6. 字符串截取函数:substr,substring

语法: substr(string A, int start, int len),substring(string A, intstart, int len)

返回值: string

说明:返回字符串A从start位置开始,长度为len的字符串

举例:

hive> select substr('abcde',3,2) from lxw_dual;

cd

hive> select substring('abcde',3,2) from lxw_dual;

cd

hive>select substring('abcde',-2,2) from lxw_dual;

de

7. 字符串转大写函数:upper,ucase

语法: upper(string A) ucase(string A)

返回值: string

说明:返回字符串A的大写格式

举例:

hive> select upper('abSEd') from lxw_dual;

hive> select ucase('abSEd') from lxw_dual;

8. 字符串转小写函数:lower,lcase

语法: lower(string A) lcase(string A)

返回值: string

说明:返回字符串A的小写格式

举例:

hive> select lower('abSEd') from lxw_dual;

absed

hive> select lcase('abSEd') from lxw_dual;

absed

9. 去空格函数:trim

语法: trim(string A)

返回值: string

说明:去除字符串两边的空格

举例:

hive> select trim(' abc ') from lxw_dual;

abc

10. 左边去空格函数:ltrim

语法: ltrim(string A)

返回值: string

说明:去除字符串左边的空格

举例:

hive> select ltrim(' abc ') from lxw_dual;

abc

11. 右边去空格函数:rtrim

语法: rtrim(string A)

返回值: string

说明:去除字符串右边的空格

举例:

hive> select rtrim(' abc ') from lxw_dual;

abc

12. 正则表达式替换函数:regexp_replace

语法: regexp_replace(string A, string B, string C)

返回值: string

说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符,类似Oracle中的regexp_replace函数。

举例:

hive> select regexp_replace('foobar', 'oo|ar', '') from lxw_dual;

fb

13. 正则表达式解析函数:regexp_extract

语法: regexp_extract(string subject, string pattern, int index)

返回值: string

说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。

举例:

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 1) fromlxw_dual;

the

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 2) fromlxw_dual;

bar

hive> select regexp_extract('foothebar', 'foo(.*?)(bar)', 0) fromlxw_dual;

foothebar

注意,在有些情况下要使用转义字符,下面的等号要用双竖线转义,这是java正则表达式的规则。

select data_field,

     regexp_extract(data_field,'.*?bgStart\\=([^&]+)',1) as aaa,

     regexp_extract(data_field,'.*?contentLoaded_headStart\\=([^&]+)',1) as bbb,

     regexp_extract(data_field,'.*?AppLoad2Req\\=([^&]+)',1) as ccc

     from pt_nginx_loginlog_st

     where pt = '2012-03-26'limit 2;

14. URL解析函数:parse_url

语法: parse_url(string urlString, string partToExtract [, stringkeyToExtract])

返回值: string

说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO.

举例:

hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'HOST') fromlxw_dual;

facebook.com

hive> selectparse_url('http://facebook.com/path1/p.PHP?k1=v1&k2=v2#Ref1', 'QUERY','k1') from lxw_dual;

v1

15. json解析函数:get_json_object

语法: get_json_object(string json_string, string path)

返回值: string

说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。

举例:

hive> select  get_json_object('{"store":

>   {"fruit":\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}],

>    "bicycle":{"price":19.95,"color":"red"}

>   },

>  "email":"amy@only_for_json_udf_test.NET",

>  "owner":"amy"

> }

> ','$.owner') from lxw_dual;

amy

16. 空格字符串函数:space

语法: space(int n)

返回值: string

说明:返回长度为n的字符串

举例:

hive> select space(10) from lxw_dual;

hive> select length(space(10)) from lxw_dual;

10

17. 重复字符串函数:repeat

语法: repeat(string str, int n)

返回值: string

说明:返回重复n次后的str字符串

举例:

hive> select repeat('abc',5) from lxw_dual;

abcabcabcabcabc

18. 首字符ascii函数:ascii

语法: ascii(string str)

返回值: int

说明:返回字符串str第一个字符的ascii码

举例:

hive> select ascii('abcde') from lxw_dual;

97

19. 左补足函数:lpad

语法: lpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行左补足到len位

举例:

hive> select lpad('abc',10,'td') from lxw_dual;

tdtdtdtabc

注意:与GPoracle不同,pad不能默认

20. 右补足函数:rpad

语法: rpad(string str, int len, string pad)

返回值: string

说明:将str进行用pad进行右补足到len位

举例:

hive> select rpad('abc',10,'td') from lxw_dual;

abctdtdtdt

21. 分割字符串函数: split

语法: split(string str, stringpat)

返回值: array

说明:按照pat字符串分割str,会返回分割后的字符串数组

举例:

hive> select split('abtcdtef','t') from lxw_dual;

["ab","cd","ef"]

22. 集合查找函数:find_in_set

语法: find_in_set(string str, string strList)

返回值: int

说明:返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0

举例:

hive> select find_in_set('ab','ef,ab,de') from lxw_dual;

2

hive> select find_in_set('at','ef,ab,de') from lxw_dual;

0

八、集合统计函数

1. 个数统计函数: count

语法: count(*), count(expr), count(DISTINCT expr[, expr_.])

返回值: int

说明: count(*)统计检索出的行的个数,包括NULL值的行;count(expr)返回指定字段的非空值的个数;count(DISTINCTexpr[, expr_.])返回指定字段的不同的非空值的个数

举例:

hive> select count(*) from lxw_dual;

20

hive> select count(distinct t) from lxw_dual;

10

2. 总和统计函数: sum

语法: sum(col), sum(DISTINCT col)

返回值: double

说明: sum(col)统计结果集中col的相加的结果;sum(DISTINCT col)统计结果中col不同值相加的结果

举例:

hive> select sum(t) from lxw_dual;

100

hive> select sum(distinct t) from lxw_dual;

70

3. 平均值统计函数: avg

语法: avg(col), avg(DISTINCT col)

返回值: double

说明: avg(col)统计结果集中col的平均值;avg(DISTINCT col)统计结果中col不同值相加的平均值

举例:

hive> select avg(t) from lxw_dual;

50

hive> select avg (distinct t) from lxw_dual;

30

4. 最小值统计函数: min

语法: min(col)

返回值: double

说明:统计结果集中col字段的最小值

举例:

hive> select min(t) from lxw_dual;

20

5. 最大值统计函数: max

语法: maxcol)

返回值: double

说明:统计结果集中col字段的最大值

举例:

hive> select max(t) from lxw_dual;

120

6. 非空集合总体变量函数:var_pop

语法: var_pop(col)

返回值: double

说明:统计结果集中col非空集合的总体变量(忽略null)

举例:

7. 非空集合样本变量函数:var_samp

语法: var_samp (col)

返回值: double

说明:统计结果集中col非空集合的样本变量(忽略null)

举例:

8. 总体标准偏离函数:stddev_pop

语法: stddev_pop(col)

返回值: double

说明:该函数计算总体标准偏离,并返回总体变量的平方根,其返回值与VAR_POP函数的平方根相同

举例:

9. 样本标准偏离函数:stddev_samp

语法: stddev_samp (col)

返回值: double

说明:该函数计算样本标准偏离

举例:

10.中位数函数:percentile

语法: percentile(BIGINT col, p)

返回值: double

说明:求准确的第pth个百分位数,p必须介于0和1之间,但是col字段目前只支持整数,不支持浮点数类型

举例:

11. 中位数函数:percentile

语法: percentile(BIGINT col, array(p1 [, p2]…))

返回值: array<double>

说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array<double>,其中为对应的百分位数。

举例:

select percentile(score,<0.2,0.4>) from lxw_dual;取0.2,0.4位置的数据

12. 近似中位数函数:percentile_approx

语法: percentile_approx(DOUBLE col, p [, B])

返回值: double

说明:求近似的第pth个百分位数,p必须介于0和1之间,返回类型为double,但是col字段支持浮点类型。参数B控制内存消耗的近似精度,B越大,结果的准确度越高。默认为10,000。当col字段中的distinct值的个数小于B时,结果为准确的百分位数

举例:

13. 近似中位数函数:percentile_approx

语法: percentile_approx(DOUBLE col, array(p1 [, p2]…) [, B])

返回值: array<double>

说明:功能和上述类似,之后后面可以输入多个百分位数,返回类型也为array<double>,其中为对应的百分位数。

举例:

14. 直方图:histogram_numeric

语法: histogram_numeric(col, b)

返回值: array<struct {‘x’,‘y’}>

说明:以b为基准计算col的直方图信息。

举例:

hive> select histogram_numeric(100,5) from lxw_dual;

[{"x":100.0,"y":1.0}]

九、复合类型构建操作

1. Map类型构建: map

语法: map (key1, value1, key2, value2,…)

说明:根据输入的key和value对构建map类型

举例:

hive> Create table lxw_test as select map('100','tom','200','mary')as t from lxw_dual;

hive> describe lxw_test;

t       map<string,string>

hive> select t from lxw_test;

{"100":"tom","200":"mary"}

2. Struct类型构建: struct

语法: struct(val1, val2, val3,…)

说明:根据输入的参数构建结构体struct类型

举例:

hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;

hive> describe lxw_test;

t       struct<col1:string,col2:string,col3:string>

hive> select t from lxw_test;

{"col1":"tom","col2":"mary","col3":"tim"}

3. array类型构建: array

语法: array(val1, val2,…)

说明:根据输入的参数构建数组array类型

举例:

hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;

hive> describe lxw_test;

t       array<string>

hive> select t from lxw_test;

["tom","mary","tim"]

十、复杂类型访问操作

1. array类型访问: A[n]

语法: A[n]

操作类型: A为array类型,n为int类型

说明:返回数组A中的第n个变量值。数组的起始下标为0。比如,A是个值为['foo', 'bar']的数组类型,那么A[0]将返回'foo',而A[1]将返回'bar'

举例:

hive> create table lxw_test as selectarray("tom","mary","tim") as t from lxw_dual;

hive> select t[0],t[1],t[2] from lxw_test;

tom     mary   tim

2. map类型访问: M[key]

语法: M[key]

操作类型: M为map类型,key为map中的key值

说明:返回map类型M中,key值为指定值的value值。比如,M是值为{'f' -> 'foo', 'b'-> 'bar', 'all' -> 'foobar'}的map类型,那么M['all']将会返回'foobar'

举例:

hive> Create table lxw_test as selectmap('100','tom','200','mary') as t from lxw_dual;

hive> select t['200'],t['100'] from lxw_test;

mary    tom

3. struct类型访问: S.x

语法: S.x

操作类型: S为struct类型

说明:返回结构体S中的x字段。比如,对于结构体struct foobar {int foo, int bar},foobar.foo返回结构体中的foo字段

举例:

hive> create table lxw_test as select struct('tom','mary','tim')as t from lxw_dual;

hive> describe lxw_test;

t       struct<col1:string,col2:string,col3:string>

hive> select t.col1,t.col3 from lxw_test;

tom     tim

十一、复杂类型长度统计函数

1.   Map类型长度函数: size(Map<K.V>)

语法: size(Map<K.V>)

返回值: int

说明:返回map类型的长度

举例:

hive> select size(map('100','tom','101','mary')) from lxw_dual;

2

2.   array类型长度函数: size(Array<T>)

语法: size(Array<T>)

返回值: int

说明:返回array类型的长度

举例:

hive> select size(array('100','101','102','103')) from lxw_dual;

4

3.   类型转换函数

类型转换函数: cast

语法: cast(expr as <type>)

返回值: Expected "=" to follow "type"

说明:返回array类型的长度

举例:

hive> select cast(1 as bigint) from lxw_dual;

1

猜你喜欢

转载自blog.csdn.net/weixin_40444678/article/details/81031025