在hue上执行数据的重新导入:
1、删除原先的kudu表:drop table events;
2、需要在impala里创建kudu新表:
CREATE TABLE events(
user_id STRING , item_id STRING , create_time BIGINT ,
col_1 STRING , col_12 STRING , col_13 STRING ,
col_14 STRING , col_15 STRING , col_16 STRING ,
col_17 BIGINT , col_18 BIGINT , col_19 STRING ,
col_20 DOUBLE , col_21 BIGINT , col_22 BIGINT ,
col_23 BIGINT , col_24 STRING , col_25 STRING ,
col_26 STRING , col_28 BIGINT , col_32 STRING ,
PRIMARY KEY (user_id, item_id, create_time)
)
PARTITION BY HASH (user_id) PARTITIONS 16
STORED AS KUDU;
3、将数据重新导入。
在执行第2步的时候,遇到了坑和错误:
ERROR: ImpalaRuntimeException: Error creating Kudu table 'impala::analysis.events'
CAUSED BY: ImpalaRuntimeException: Table 'impala::analysis.events' already exists in Kudu.
错误指示:这个表已经存在!
去impala表里和hdfs仔细检查后,这个表并不存在!
后来经过尝试探索,发现是
kudu单独存到了它自己的‘区域’;
解决办法:
在linux命令里输入:
kudu table delete master主机名 表名
需要注意的是,这个表名是:
impala::analysis.events
一定不要忘记前面的impala:: 这也是表名的一部分!
转载于:https://www.jianshu.com/p/b9a9665ec6c8