前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hive快速入门系列(15) | Hive性能调优 [二] 表的优化

Hive快速入门系列(15) | Hive性能调优 [二] 表的优化

作者头像
不温卜火
发布2020-10-28 16:13:42
8000
发布2020-10-28 16:13:42
举报
文章被收录于专栏:不温卜火

  此次博主为大家带来的是Hive性能调优中的表的优化。

一. 小表、大表Join

  将key相对分散,并且数据量小的表放在join的左边,这样可以有效减少内存溢出错误发生的几率;再进一步,可以使用map join让小的维度表(1000条以下的记录条数)先进内存。在map端完成reduce。 实际测试发现:新版的hive已经对小表JOIN大表和大表JOIN小表进行了优化。小表放在左边和右边已经没有明显区别。

案例实操

  • 1. 需求 测试大表JOIN小表和小表JOIN大表的效率
  • 2.建大表、小表和JOIN后表的语句
代码语言:javascript
复制
// 创建大表
create table bigtable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建小表
create table smalltable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建join后表的语句
create table jointable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
1
1
  • 3. 分别向大表和小表中导入数据
代码语言:javascript
复制
hive (default)> load data local inpath '/opt/module/datas/bigtable' into table bigtable;
hive (default)>load data local inpath '/opt/module/datas/smalltable' into table smalltable;
2
2
  • 4. 关闭mapjoin功能(默认是打开的)
代码语言:javascript
复制
set hive.auto.convert.join = false;
  • 5. 执行小表JOIN大表语句
代码语言:javascript
复制
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from smalltable s
left join bigtable  b
on b.id = s.id;
  • 6. 执行大表JOIN小表语句
代码语言:javascript
复制
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from bigtable  b
left join smalltable  s
on s.id = b.id;
3
3

我们可见时间是差不多的,正好验证了上面的结论。

二. 大表Join大表

2.1 空KEY过滤

  有时join超时是因为某些key对应的数据太多,而相同key对应的数据都会发送到相同的reducer上,从而导致内存不够。此时我们应该仔细分析这些异常的key,很多情况下,这些key对应的数据是异常数据,我们需要在SQL语句中进行过滤。例如key对应的字段为空,操作如下: 案例操作:

  • 1. 配置历史服务器
代码语言:javascript
复制
// 配置mapred-site.xml
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop001:10020</value>
</property>
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop001:19888</value>
</property>

// 启动历史服务器
sbin/mr-jobhistory-daemon.sh start historyserver
4
4

查看jobhistory http://hadoop001:19888/jobhistory

5
5
  • 2. 创建原始数据表、空id表、合并后数据表
代码语言:javascript
复制
// 创建原始表
create table ori(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建空id表
create table nullidtable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
// 创建join后表的语句
create table jointable(id bigint, time bigint, uid string, keyword string, url_rank int, click_num int, click_url string) row format delimited fields terminated by '\t';
6
6
  • 3. 分别加载原始数据和空id数据到对应表中
代码语言:javascript
复制
hive (default)> load data local inpath '/opt/module/datas/ori' into table ori;
hive (default)> load data local inpath '/opt/module/datas/nullid' into table nullidtable;
7
7
  • 4. 测试不过滤空id
代码语言:javascript
复制
hive (default)> insert overwrite table jointable select n.* from nullidtable n
left join ori o on n.id = o.id;
8
8
  • 5. 测试过滤空id
代码语言:javascript
复制
hive (default)> insert overwrite table jointable select n.* from (select * from nullidtable where id is not null ) n  left join ori o on n.id = o.id;
9
9

2.2 空key转换

  有时虽然某个key为空对应的数据很多,但是相应的数据不是异常数据,必须要包含在join的结果中,此时我们可以表a中key为空的字段赋一个随机的值,使得数据随机均匀地分不到不同的reducer上。

案例实操:

1. 不随机分布空null值:

  • 1. 设置5个reduce个数
代码语言:javascript
复制
set mapreduce.job.reduces = 5;
  • 2. JOIN两张表
代码语言:javascript
复制
insert overwrite table jointable
select n.* from nullidtable n left join ori b on n.id = b.id;
10
10

结果:如下图所示,可以看出来,出现了数据倾斜,某些reducer的资源消耗远大于其他reducer。

11
11

2. 随机分布空null值

  • 1. 设置5个reduce个数
代码语言:javascript
复制
set mapreduce.job.reduces = 5;
  • 2. JOIN两张表
代码语言:javascript
复制
insert overwrite table jointable
select n.* from nullidtable n full join ori o on 
case when n.id is null then concat('hive', rand()) else n.id end = o.id;

结果:如下图所示,可以看出来,消除了数据倾斜,负载均衡reducer的资源消耗

12
12

三. MapJoin(小表join大表)

  如果不指定MapJoin或者不符合MapJoin的条件,那么Hive解析器会将Join操作转换成Common Join,即:在Reduce阶段完成join。容易发生数据倾斜。可以用MapJoin把小表全部加载到内存在map端进行join,避免reducer处理。

3.1 开启MapJoin参数设置

  • 1. 设置自动选择Mapjoin
代码语言:javascript
复制
set hive.auto.convert.join = true; 默认为true
  • 2. 大表小表的阈值设置(默认25M以下认为是小表):
代码语言:javascript
复制
set hive.mapjoin.smalltable.filesize=25000000;

3.1 MapJoin工作机制

13
13

案例实操:

  • 1 . 开启Mapjoin功能
代码语言:javascript
复制
set hive.auto.convert.join = true; 默认为true
  • 2. 执行小表JOIN大表语句
代码语言:javascript
复制
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from smalltable s
join bigtable  b
on s.id = b.id;
14
14
  • 3. 执行大表JOIN小表语句
代码语言:javascript
复制
insert overwrite table jointable
select b.id, b.time, b.uid, b.keyword, b.url_rank, b.click_num, b.click_url
from bigtable  b
join smalltable  s
on s.id = b.id;
15
15

四. Group By

  默认情况下,Map阶段同一Key数据分发给一个reduce,当一个key数据过大时就倾斜了。

16
16

  并不是所有的聚合操作都需要在Reduce端完成,很多聚合操作都可以先在Map端进行部分聚合,最后在Reduce端得出最终结果。

开启Map端聚合参数设置

  • 1. 是否在Map端进行聚合,默认为True
代码语言:javascript
复制
set hive.map.aggr = true
  • 2. 在Map端进行聚合操作的条目数目
代码语言:javascript
复制
set hive.groupby.mapaggr.checkinterval = 100000
  • 3. 有数据倾斜的时候进行负载均衡(默认是false)
代码语言:javascript
复制
set hive.groupby.skewindata = true

当选项设定为 true,生成的查询计划会有两个MR Job。第一个MR Job中,Map的输出结果会随机分布到Reduce中,每个Reduce做部分聚合操作,并输出结果,这样处理的结果是相同的Group By Key有可能被分发到不同的Reduce中,从而达到负载均衡的目的;第二个MR Job再根据预处理的数据结果按照Group By Key分布到Reduce中(这个过程可以保证相同的Group By Key被分布到同一个Reduce中),最后完成最终的聚合操作。

  • 优化前
代码语言:javascript
复制
hive (default)> select student.name from student group by student.name;
17
17
  • 优化后
代码语言:javascript
复制
hive (default)> set hive.groupby.skewindata = true;
hive (default)> select student.name from student group by student.name;
18
18

五. Count(Distinct) 去重统计

  数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT的全聚合操作,即使设定了reduce task个数,set mapred.reduce.tasks=100;hive也只会启动一个reducer。,这就造成一个Reduce处理的数据量太大,导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换:

实例操作:

  • 1. 创建一张大表
代码语言:javascript
复制
hive (default)> create table bigtable(id bigint, time bigint, uid string, keyword
string, url_rank int, click_num int, click_url string) row format delimited
fields terminated by '\t';
  • 2. 加载数据
代码语言:javascript
复制
hive (default)> load data local inpath '/opt/module/datas/bigtable' into table
 bigtable;
  • 3. 设置5个reduce个数
代码语言:javascript
复制
set mapreduce.job.reduces = 5;
  • 4. 执行去重id查询
代码语言:javascript
复制
hive (default)> select count(distinct id) from bigtable;
19
19
  • 5. 采用GROUP by去重id
代码语言:javascript
复制
hive (default)> select count(id) from (select id from bigtable group by id) a;
20
20

虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。

六. 笛卡尔积

  尽量避免笛卡尔积,join的时候不加on条件,或者无效的on条件,Hive只能使用1个reducer来完成笛卡尔积。

七. 行列过滤

列处理:在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。 行处理:在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤.

案例实操:

  • 1. 测试先关联两张表,再用where条件过滤
代码语言:javascript
复制
hive (default)> select o.id from bigtable b
join ori o on o.id = b.id
where o.id <= 10;

Time taken: 34.406 seconds, Fetched: 100 row(s)

  • 2. 通过子查询后,再关联表
代码语言:javascript
复制
hive (default)> select b.id from bigtable b
join (select id from ori where id <= 10 ) o on b.id = o.id;

Time taken: 30.058 seconds, Fetched: 100 row(s)

八. 动态分区调整

  关系型数据库中,对分区表Insert数据时候,数据库自动会根据分区字段的值,将数据插入到相应的分区中,Hive中也提供了类似的机制,即动态分区(Dynamic Partition),只不过,使用Hive的动态分区,需要进行相应的配置。

8.1 开启动态分区参数设置

  • 1. 开启动态分区功能(默认true,开启)
代码语言:javascript
复制
hive.exec.dynamic.partition=true
  • 2. 设置为非严格模式(动态分区的模式,默认strict,表示必须指定至少一个分区为静态分区,nonstrict模式表示允许所有的分区字段都可以使用动态分区。)
代码语言:javascript
复制
hive.exec.dynamic.partition.mode=nonstrict
  • 3. 在所有执行MR的节点上,最大一共可以创建多少个动态分区。默认1000
代码语言:javascript
复制
hive.exec.max.dynamic.partitions=1000
  • 4. 在每个执行MR的节点上,最大可以创建多少个动态分区。该参数需要根据实际的数据来设定。比如:源数据中包含了一年的数据,即day字段有365个值,那么该参数就需要设置成大于365,如果使用默认值100,则会报错。
代码语言:javascript
复制
hive.exec.max.dynamic.partitions.pernode=100
  • 5. 整个MR Job中,最大可以创建多少个HDFS文件。默认100000
代码语言:javascript
复制
hive.exec.max.created.files=100000
  • 6. 当有空分区生成时,是否抛出异常。一般不需要设置。默认false
代码语言:javascript
复制
hive.error.on.empty.partition=false

8.2 实例操作

需求:将dept表中的数据按照地区(loc字段),插入到目标表dept_partition的相应分区中。

  • 1. 创建目标分区表
代码语言:javascript
复制
hive (default)> create table dept_partition(id int, name string) partitioned
by (location int) row format delimited fields terminated by '\t';
  • 2. 设置动态分区
代码语言:javascript
复制
set hive.exec.dynamic.partition.mode = nonstrict;
hive (default)> insert into table dept_partition partition(location) select deptno, dname, loc from dept;
  • 3. 查看目标分区表的分区情况
代码语言:javascript
复制
hive (default)> show partitions dept_partition;

  本次的分享就到这里了

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/05/08 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一. 小表、大表Join
  • 二. 大表Join大表
    • 2.1 空KEY过滤
      • 2.2 空key转换
        • 1. 不随机分布空null值:
        • 2. 随机分布空null值
    • 三. MapJoin(小表join大表)
      • 3.1 开启MapJoin参数设置
        • 3.1 MapJoin工作机制
        • 四. Group By
        • 五. Count(Distinct) 去重统计
        • 六. 笛卡尔积
        • 七. 行列过滤
        • 八. 动态分区调整
          • 8.1 开启动态分区参数设置
            • 8.2 实例操作
            相关产品与服务
            数据库
            云数据库为企业提供了完善的关系型数据库、非关系型数据库、分析型数据库和数据库生态工具。您可以通过产品选择和组合搭建,轻松实现高可靠、高可用性、高性能等数据库需求。云数据库服务也可大幅减少您的运维工作量,更专注于业务发展,让企业一站式享受数据上云及分布式架构的技术红利!
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档