Le procédé de la ruche coutumier deux

Actualiser table de partition Ruche

#删除重建表
DROP TABLE asmp.tt_tmp;
create external table if not exists asmp.tt_tmp(
rssc_name	string,
rssc_code	string,
sst_name	string,
update_date string
)
STORED AS parquet
LOCATION '/user/asmp/hive/asmp/tt_tmp';
#修复分区
MSCK REPAIR TABLE asmp.tt_tmp;

supprimer rapidement la table des partitions Hive vide

--删除所有空分区
alter table wd_tt_repair_part drop IF EXISTS PARTITION (partition_rssc='__HIVE_DEFAULT_PARTITION__') ;
--删除指定月份下面空分区(防止误删除历史数据)
alter table wd_tt_repair_part drop IF EXISTS PARTITION (partition_date=201906,partition_rssc='__HIVE_DEFAULT_PARTITION__') ;

Augmenter la ruche pour effectuer mémoire

SET mapreduce.map.memory.mb=8192;
SET mapreduce.map.java.opts='-Xmx6552M'; 
SET mapreduce.reduce.memory.mb=8192; 
SET mapreduce.reduce.java.opts='-Xmx6552M'; 
SET mapreduce.child.map.java.opts='-Xmx6552M';
SET mapred.child.java.opts='-Xmx4096M';

Utilise des partitions dynamiques

-- 是否开启动态分区功能,默认false
hive.exec.dynamic.partition =true;
-- 动态分区的模式,默认为strict
hive.exec.dynamic.partition.mode = nonstrict;
-- 增加动态分区数量
set hive.exec.max.dynamic.partitions=2000;
set hive.exec.max.dynamic.partitions.pernode=2000;

ruche-site.xml pour ajouter le partitionnement dynamique (utilisation sparksql pour prendre effet)

  <property>
    <name>hive.exec.dynamic.partition</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.exec.dynamic.partition.mode</name>
    <value>nonstrict</value>
  </property>
  <property>
    <name>hive.exec.max.dynamic.partitions</name>
    <value>100000</value>
  </property>
  <property>
    <name>hive.exec.max.dynamic.partitions.pernode</name>
    <value>100000</value>
  </property>
  <property>
    <name>hive.exec.max.created.files</name>
    <value>500000</value>
  </property>

degré concurrent ruche

set hive.exec.parallel=true;
set hive.exec.parallel.thread.number=8;

ruche ne sélectionne pas une colonne de données

set hive.support.quoted.identifiers=none;
select `(oil_code)?+.+` from table_oil;

Atteindre la chaîne carte de tour

str_to_map(concat_ws(',',collect_set(concat_ws(':',key, cast(value as string)))))

Modifier les tables internes de la table externe

alter table tbl_name set TBLPROPERTIES('EXTERNAL'='FALSE')

mr lire les paramètres de récursive

set mapreduce.input.fileinputformat.input.dir.recursive=true;
set hive.mapred.supports.subdirectories=true;

Affiche le nom de la base de données en cours

set hive.cli.print.current.db=true;
set hive.cli.print.header=true; 

et la carte le nombre de réducteur de commande

---map设置
set mapred.max.split.size=128000000;
set mapred.min.split.size.per.node=8000000;
set mapred.min.split.size.per.rack=8000000;
---reducer设置
set hive.exec.reducers.bytes.per.reducer = 128000000;
set hive.exec.reducers.max = 999;
Publié 118 articles originaux · louange gagné 25 · Vues 150 000 +

Je suppose que tu aimes

Origine blog.csdn.net/lhxsir/article/details/99645619
conseillé
Classement