16ハイブDDL DMLは組み込み関数

表を作成します。次の形式を

[TEMPORARY] [外部] TABLE [EXISTSされていない場合] [。DB_NAME] table_nameのCREATE
existing_table_or_view_name LIKE
[LOCATIONのhdfs_pathを];

 

コピーテーブル構造、データテーブルにはコピーしないでください
ruozedata_emp LIKE TABLEのruozedata_emp2を作成します。

表として選択(CTAS)#CTASを作成して表示テーブルとして選択を作成して
選択EMPNO、ENAME、ruozedata_empからDEPTNOとして表のruozedata_emp3を作成します。

オフライン求人:1日の粒度、今日はtmpのテーブル内で書かれた昨日の統計情報、統計情報です

ALTER TABLE老表RENAME TO新表。
ALTER TABLE ruozedata_emp3_bakにruozedata_emp3リネーム。

ドロップ表削除するには、テーブルの足
のDROP TABLE table_nameののruozedata_emp3_bak、テーブルとデータが削除されます

データ切り捨てテーブルは、テーブルを削除し、まだテーブル
切り捨てテーブルtable_name;

 

 

ドロップ表と頻繁に尋ねたインタビュー切り捨て表

################################################## ###############

 

 

 

 

 

 

 

内部表和外部表
metadata: TBL_TYPE
data: Table Type

hive中有2大类,managed table 和 external table,如下                    #external是外部的意思,外部表时候,通常把数据不放在默认的路径下  

默认情况下,create table table_name就是内部表

create external table table_name 是外部表

 

 

 

 

 

 

 

上面的发现在mysql中有元数据,在hdfs中也有数据

 

 

 

 

 

 

 

 

 所以对于managed内部表而言,执行drop table table_name时候,元数据和HDFS上面的数据都没了

下面来看外部表 terminated,外部表,公司一般走路径,也就是说不放在默认的路径中

CREATE EXTERNAL TABLE emp_external(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int
)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
LOCATION '/d7_externel/emp/' ;

这个时候元数据和hdfs中都有数据了

 

 

 

 

 

 

 

 

 

 

 

但是HDFS中数据还在

 

 

 

 

 总结:

MANAGED_TABLE
DROP : data + metadata  都会被删除掉

 

EXTERNAL_TABLE
DROP: metadata 被删除 但是 HDSF不删

上面的2个区别,面试经常会被问到

##############################################################################

create table ruozedata_dept(
deptno int,
dname string,
loc string
) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

load data local inpath '/home/hadoop/data/dept.txt' into table ruozedata_dept;

 

 上面数据就重复了,此时需要用overwrite 防止重写

 

 

load data inpath 'hdfs://hadoop000:8020/wc/dept/dept.txt' into table ruozedata_dept;

 

 

LOAD DATA [LOCAL] INPATH '' [OVERWRITE] INTO TABLE XXX;
LOCAL:从本地系统 linux
不带LOCAL: 从Hadoop文件系统 HDFS

OVERWRITE 数据覆盖
不带OVERWRITE 追加

#############################################################

 

 

 

下面来把数据导出

INSERT OVERWRITE LOCAL DIRECTORY '/home/hadoop/tmp/empout'
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
SELECT empno,ename FROM ruozedata_emp;

 

SELECT empno,ename FROM ruozedata_emp;

 

select ename,sal,
case
when sal>1 and sal<=1000 then "lower"
when sal>1000 and sal<=2000 then "just so so"
when sal>2000 and sal<=4000 then "ok"
else "high"
end
from ruozedata_emp;                   #显示如下

 

おすすめ

転載: www.cnblogs.com/python8/p/11964928.html