大数据(Hive数据库、表的详解及其Hive数据导入导出)

大数据课程第七天


数据库详解
  1. 数据库相关

  

#/user/hive/warehouse/db_name.db
create database if not exists db_name
#指定HDFS目录 作为hive的数据库目录
create database if not exists db_name location '/t'
#删除空数据库
drop database db_name
#删除非空的数据库
drop database db_name cascade;
#显示所有数据库
show databases
#应用数据库 
use db_name
表Table详解
#查看表的信息
desc table_name
describe  table_name
#查看表中更为详细的信息
desc extended table_name
#格式化查看表中更为详细的信息
desc formatted table_name
  1. 管理表 (重点)

    1. 基本语法

      create table if not exists table_name(
      id int,
      name string
      )row format delimited fields termimated by '\t';
    2. 基于as子查询的建表方式

      #1. 以后面子查询的查询列,作为表的结构
      #2. 同时会把查询结果的数据,插入新表中
      create table if not exists table_name as select id from t_user;
    3. 基于like关键字建表

      #复制t_user的表结构,但不复制数据
      create table if not exists table_name like t_user;
    4. 指定表格位置[技巧]

      #默认建表的位置 在当前数据库中
      #/user/hive/warehouse/baizhi_140.db/t_user
      #/user/hive/warehouse/baizhi_140.db/t_user_as
      #/user/hive/warehouse/baizhi_140.db/t_user_like

      #指定表格的创建位置 location
      create table if not exists table_name(
      id int,
      name string
      )row format delimited fields termimated by '\t' location '/test1';

      #存在目录 套上一张表 [重点]
      create table if not exists t_user_suns(
      id int,
      name string
      )row format delimited fields terminated by '\t' location '/suns';
    5. 注意[技巧]

      hdfs上同一个目录下的所有文件,hive表统一操作处理
  2. 外部表

    #基本创建语法
    create
    external table if not exists table_name( id int, name string )row format delimited fields termimated by '\t';
    ​#子查询方式
    create external table if not exists table_name as select id from t_user;
    ​#like创建方式
    create external table if not exists table_name like t_user;
    1. 管理表 与 外部表的区别

 

 

#删除管理表 ,HDFS上的目录同样删除 drop table t_user_as; #删除外部表,HDFS上的目录及数据保留,删除了metastore drop table t_user_ex;

3.分区表 (优化)
create
table t_user_part( id int, name string) partitioned by (time string) row format delimited fields terminated by '\t'; ​ load data local inpath '/root/data3' into table t_user_part partition (time='18'); load data local inpath '/root/data3' into table t_user_part partition (time='19'); ​ select * from t_user_part #操作具体分区 where 分区条件 select count(*) from t_user_part where time='18' and id >3 ;

 

桶表 (抽样,了解)

  1. 临时表(了解

Hive中的数据导入和导出
  1. 数据的导入 import

    1. load data local[重点]

      #linux系统中向hdfs中的hive导入数据
      load data local inpath '' into table table_name 
    2. load data

      #从hdfs向hive导入数据
      load data inpath 'hdfs_path' into table table_name 
      ​
      #本质上就是把某一个目录下的文件  移动到 新表的目录中
      load data inpath '/suns/data3' into table t_user_hdfs
    3. 创建表的过程中 通过as

    4. insert 关键字 导入数据[重点]

      # 与 as 通过子查询导入数据 关键区别在于通过insert操作,表已经存在.
      insert into table t_user_2 select id,name from t_user;
    5. 通过hdfs put文件

      bin/hdfs dfs -put /root/data3 /user/hive/warsehouse/baizhi_140/t_user 
  2. 数据的导出

    1. insert方式【重点】

      insert overwrite local directory '/root/xiaohei' select name from t_user; 
      #底层应用mr,那么所有xiaohei目录不能存在,自动生成文件名 000000_0insert overwrite directory 'hdfs_path' select name from t_user; 
    2. Hive导入 导出命令【了解】

    3. 通过hdfs get文件

      bin/hdfs dfs -get  /user/hive/warsehouse/baizhi_140/t_user  /root
    4. 通过hive的启动参数导出数据

      bin/hive --database 'baizhi125' -f /root/hive.sql > /root/result

       

 

猜你喜欢

转载自www.cnblogs.com/lhc-hhh/p/10371780.html