|
|
|
|
公众号矩阵

Hive动态分区详解,你知道吗?

Hive根据select语句中最后两列来确定分区字段country和state的值,这里刻意使用了不同的命名,就是为了强调源表字段和输出分区值之间的关系是根据位置而不是根据命名来匹配的。

作者: 柯同学 来源:Java大数据与数据仓库 |2021-02-20 08:21

 

本文转载自微信公众号「Java大数据与数据仓库」,作者柯同学。转载本文请联系Java大数据与数据仓库公众号。

动态分区调整

  • 动态分区属性:设置为true表示开启动态分区功能(默认为false)hive.exec.dynamic.partition=true;
  • 动态分区属性:设置为nonstrict,表示允许所有分区都是动态的(默认为strict)设置为strict,表示必须保证至少有一个分区是静态的hive.exec.dynamic.partition.mode=strict;
  • 动态分区属性:每个mapper或reducer可以创建的最大动态分区个数hive.exec.max.dynamic.partitions.pernode=100;
  • 动态分区属性:一个动态分区创建语句可以创建的最大动态分区个数hive.exec.max.dynamic.partitions=1000;
  • 动态分区属性:全局可以创建的最大文件个数hive.exec.max.created.files=100000;
  • 控制DataNode一次可以打开的文件个数 这个参数必须设置在DataNode的$HADOOP_HOME/conf/hdfs-site.xml文件中
  1. <property> 
  2.     <name>dfs.datanode.max.xcievers</name
  3.     <value>8192</value> 
  4. </property> 

注意

在Hive中,动态分区会造成在插入数据过程中,生成过多零碎的小文件

动态分区插入

如果需要创建非常多的分区,用户就需要写非常多的条件查询sql把数据插入对应分区。好在Hive提供了动态分区功能,可以根据分区字段的取值自动创建分区。前面列出的开启动态分区hive.exec.dynamic.partition,并且hive.exec.dynamic.partition.mode需要为非严格模式,通常如果分区很多的话,hive.exec.max.dynamic.partitions.pernode也需要设置为一个较大的数,否则会有报错提醒。

现在有sql:

  1. insert overwrite table employees partitions (country, state) 
  2. select ...,se.cnty, se.st 
  3. from staged_employees se; 

可以看出,Hive根据select语句中最后两列来确定分区字段country和state的值,这里刻意使用了不同的命名,就是为了强调源表字段和输出分区值之间的关系是根据位置而不是根据命名来匹配的。

动静分区结合

也可以混合使用动态和静态分区。上面那个例子,我们可以指定国家这个分区值五为静态值US,而分区字段state是动态值:

  1. insert overwrite table employees partitions (country = 'US', state) 
  2. select ...,se.cnty, se.st 
  3. from staged_employees se 
  4. where se.cnty = 'US'

注意:静态分区需要出现在动态分区字段之前。

动态分区功能默认情况下是没有开启的,默认是以严格模式执行,这种模式下要求至少有一列分区字段是静态的。这样做的好处是可以防止因设计或其它错误查询导致产生大量的分区,比如sql boy不小心使用了时间戳作为分区字段,那将是灾难。在日常导入一天的数据,通常是指定日期为静态分区,小时为动态分区,进行混合模式导入。

例子

建表

  1. create table if not exists test.test 
  2. id string, 
  3. name string 
  4. partitioned by (dt string,hour string) 
  5. row format delimited fields terminated by '\t'
  6.  
  7. create table if not exists test.test2 
  8. id string, 
  9. name string 
  10. partitioned by (dt string,hour string) 
  11. row format delimited fields terminated by '\t' 
  12. stored as orc; 

导入数据到test.test表

  1. load data local inpath '/home/hadoop/data/test.txt' into table test.test partition(dt = '2019-09-10'hour = '02'); 
  2.  
  3. test.txt 
  4. 001    keguang 
  5. 002    kg 
  6. 003    kk 
  7. 004    ikeguang 

利用动态分区插入

  1. insert overwrite table test.test2 partition(dt, hourselect `(dt|hour)?+.+`,dt,hour from test.test; 

这里,(dt|hour)?+.+表示查询出test表除了dt和hour这两个字段的其它所有字段。

【编辑推荐】

  1. Hive语言基础知识筑基宝典视频课程
  2. hive基础
  3. Hive开发入门+原理+案例学习教程
  4. 你会Hive表的基本操作吗?
  5. 6期大数据之数据仓库工具Hive教程(讲理论还讲实操)
【责任编辑:武晓燕 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

订阅专栏+更多

数据湖与数据仓库的分析实践攻略

数据湖与数据仓库的分析实践攻略

助力现代化数据管理:数据湖与数据仓库的分析实践攻略
共3章 | 创世达人

6人订阅学习

云原生架构实践

云原生架构实践

新技术引领移动互联网进入急速赛道
共3章 | KaliArch

33人订阅学习

数据中心和VPDN网络建设案例

数据中心和VPDN网络建设案例

漫画+案例
共20章 | 捷哥CCIE

220人订阅学习

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊

51CTO服务号

51CTO官微