Hive调优

先记录了这么多,日后如果有遇到,再补充。

fetch模式

<property>
<name>hive.fetch.task.conversion</name>
<value>more</value>
<description>
Expects one of [none, minimal, more].
Some select queries can be converted to single FETCH task minimizing latency.
Currently the query should be single sourced not having any subquery and should not have
any aggregations or distincts (which incurs RS), lateral views and joins.
0. none : disable hive.fetch.task.conversion
1. minimal : SELECT STAR, FILTER on partition columns, LIMIT only
2. more : SELECT, FILTER, LIMIT only (support TABLESAMPLE and virtual columns)
</description>
</property>

抓取模式:

  • more:默认的模式:表示全局查找,字段查找,limit查找都不启用MR;

  • minimal:分区中的filter,limit都不启用;

  • none:所有程序都走MR;

hive (default)> set hive.fetch.task.conversion;
hive.fetch.task.conversion=more

本地模式

<property>
<name>hive.exec.mode.local.auto</name>
<value>false</value> <!-- 默认关闭本地模式 -->
</property>
<property>
<name>hive.exec.mode.local.auto.inputbytes.max</name>
<value>134217728</value><!-- 文件超过此值,自动关闭本地模式 -->
</property>
<property>
<name>hive.exec.mode.local.auto.input.files.max</name>
<value>4</value><!-- 文件数量大于4,自动关闭本地模式 -->
</property>

在单台机器上处理所有任务,对于小数据集,文件数量少的任务,执行时间可以被明显缩短;

  • 开启本地模式

    hive (default)> set hive.exec.mode.local.auto=true;
  • 设置本地模式的数据集大小,文件数量:

    hive (default)> set hive.exec.mode.local.auto.inputbytes.max=134217728;
    hive (default)> set hive.exec.mode.local.auto.input.files.max=4;

表优化

大表小表Join

数据量小的表,放在join的左边,可以减少内存溢出发生的几率;

新版的hive,已经默认打开此优化(MapJoin优化),小表放左右,已经没有明显区别了;

大表 Join 大表

  1. 空Key过滤

    提前对空Key,进行过滤

    where id is not null
  2. 空Key造成数据倾斜

    给空字段,赋随机字符串(不要与非空key相同)+随机值,让这些空字段,不会进到同一个Reduce中,避免数据倾斜;

    on case when n.id is null then concat('hive',rand()) else n.id = 0.id;

MapJoin—内存换时间

将小表加载进内存,进行map;

<property>
<name>hive.auto.convert.join</name>
<value>true</value><!-- 默认开启MapJoin -->
</property>
<property>
<name>hive.mapjoin.smalltable.filesize</name>
<value>25000000</value><!-- 小表加载进内存的大小 -->
</property>

MapJoin是Hive的一种优化操作,其适用于小表JOIN大表的场景,进行自动优化;

Hive中的Join可分为

  • Common Join:Reduce阶段完成join

  • Map Join:Map阶段完成join,不需要进入到Reduce阶段才进行连接,节省了在Shuffle阶段时要进行的大量数据传输;

使用场景:

并不是所有场景都适合MapJoin,适合的场景如下:

  • 小表 Join 大表:小表会被放入内存中,不影响性能;

  • 不等值的链接操作;

Group By 优化

Map阶段后,会将同一个Key,发给同一个Reduce,如果group by的某一部分过大,就会发生数据倾斜;

数据倾斜之后,在Reduce端进行聚合就会造成资源浪费;

所以:并不是所有的聚合操作,都需要在Reduce端进行操作,很多聚合操作都可以在Map端进行。

开启Map端聚合:

<property>
<name>hive.map.aggr</name>
<value>true</value>
</property>
<property>
<name>hive.groupby.mapaggr.checkinterval</name>
<value>100000</value><!-- map端进行聚合的操作数目 -->
</property>
<property>
<name>hive.groupby.skewindata</name>
<value>false</value><!--默认false:-->
<!--有数据倾斜的时候自动进行均衡负载(将Map的结果随机分发给不同的Reduce,不再通过Key分发-->
</property>

动态分区

提前设置好如何分区,在插入数据的时候,Hive根据字段的值,自动进行分区。而不需要每次加载数据手动指定分区;

默认是:开启动态分区,非严格模式;

hive.exec.dynamic.partition=true
hive.exec.dynamic.partition.mode=nonstrict
  • strict(严格模式):必须指定至少一个分区为静态分区;

  • nonstrict(非严格模式):允许所有的分区字段都可以使用动态分区;

在所有的MR的节点上,最大一共可以创建的动态分区数目:

<property>
<name>hive.exec.max.dynamic.partitions</name>
<value>1000</value>
</property>
<property>
<name>hive.exec.max.dynamic.partitions.pernode</name>
<value>100</value><!--每个节点上,最大能创建的动态分区数-->
</property>
<property>
<name>hive.exec.max.created.files</name>
<value>100000</value><!--整个MRjob,最大创建的HDFS文件数-->
</property>
例子:

已有分区表:

create table dept(dname string,loc int)
partitioned by (deptno int)
row format delimited fields terminated by '\t';

在插入数据的时候,指定动态分区列:

insert into table dept partition(deptno)
select dname, loc deptno form dept_table;

MR优化

Map:

在MR层面的优化,主要是针对MapReduce性能的优化

  1. 小文件提前合并

  2. 复杂文件增加map操作数量

Reduce:

Reduce任务个数,默认-1,根据Map阶段输入之前的数据量来定的;

每个Reduce的默认处理数据量为256MB;输入数据1G,就会产生4个reduce;

手动设置Reduce任务数:

set mapreduce.job.reduces=15

Hive调优笔记的更多相关文章

  1. 【Hive】Hive笔记:Hive调优总结——数据倾斜,join表连接优化

    数据倾斜即为数据在节点上分布不均,是常见的优化过程中常见的需要解决的问题.常见的Hive调优的方法:列剪裁.Map Join操作. Group By操作.合并小文件. 一.表现 1.任务进度长度为99 ...

  2. Java性能调优笔记

    Java性能调优笔记 调优步骤:衡量系统现状.设定调优目标.寻找性能瓶颈.性能调优.衡量是否到达目标(如果未到达目标,需重新寻找性能瓶颈).性能调优结束. 寻找性能瓶颈 性能瓶颈的表象:资源消耗过多. ...

  3. 【Hive六】Hive调优小结

    Hive调优 Hive调优 Fetch抓取 本地模式 表的优化 小表.大表Join 大表Join大表 MapJoin Group By Count(Distinct) 去重统计 行列过滤 动态分区调整 ...

  4. (转) hive调优(2)

    hive 调优(二)参数调优汇总 在hive调优(一) 中说了一些常见的调优,但是觉得参数涉及不多,补充如下 1.设置合理solt数 mapred.tasktracker.map.tasks.maxi ...

  5. (转)hive调优(1) coding调优

    hive 调优(一)coding调优 本人认为hive是很好的工具,目前支持mr,tez,spark执行引擎,有些大公司原来封装的sparksql,开发py脚本,但是目前hive支持spark引擎(不 ...

  6. hive 调优(二)参数调优汇总

    在hive调优(一) 中说了一些常见的调优,但是觉得参数涉及不多,补充如下 1.设置合理solt数 mapred.tasktracker.map.tasks.maximum 每个tasktracker ...

  7. [转]【JVM】调优笔记2-----JVM在JDK1.8以后的新特性以及VisualVM的安装使用

    [From]https://www.cnblogs.com/sxdcgaq8080/p/7156227.html               隔壁的,加个引用做书签! [JVM]调优笔记2-----J ...

  8. 【Hadoop离线基础总结】Hive调优手段

    Hive调优手段 最常用的调优手段 Fetch抓取 MapJoin 分区裁剪 列裁剪 控制map个数以及reduce个数 JVM重用 数据压缩 Fetch的抓取 出现原因 Hive中对某些情况的查询不 ...

  9. Hive调优相关

    前言 Hive是由Facebook 开源用于解决海量结构化日志的数据统计,是基于Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类 SQL查询功能. 在资源有限的情况下,提 ...

随机推荐

  1. Django:将后台返回的数据填充到select下拉框中

    select选择框如下: <select data-placeholder="选择项目..." class="form-control" name=&qu ...

  2. Eureka客户端源码流程梳理

    前面梳理了Eureka服务端的流程,现在整理下客户端的流程. 1.在这个包(spring-cloud-netflix-eureka-client)里面寻找客户端启动入口相关配置,关键配置文件sprin ...

  3. AWS 身份及验证服务(四)

    IAM 概述 集中管理访问AWS资源的访问权限和用户身份认证 支持联合访问管理,支持LADP第三方服务 (Identity Provider) 是非区域相关的服务,全局有效 创建用户.组和角色以应用策 ...

  4. Docker 安装运行MSSQL Server

    1.镜像主页 https://hub.docker.com/_/microsoft-mssql-server 2.拉取2017最新版 docker pull mcr.microsoft.com/mss ...

  5. idea删除工作记录

    或者

  6. Linux 线程实现机制分析(转载)

    自从多线程编程的概念出现在 Linux 中以来,Linux 多线应用的发展总是与两个问题脱不开干系:兼容性.效率.本文从线程模型入手,通过分析目前 Linux 平台上最流行的 LinuxThreads ...

  7. 乐字节Java|封装JavaBean、继承与权限修饰

    本文继续讲Java封装.上一篇:乐字节Java|GC垃圾回收机制.package和import语句 这次讲述JavaBean.继承与权限修饰 一. 封装javaBean 封装(Encapsulatio ...

  8. 027 Android 可扩展的listview:ExpandableListView的使用案例

    1.ExpandableListView简介 ExpandableListView是一种用于垂直滚动展示两级列表的视图,和 ListView 的不同之处就是它可以展示两级列表,分组可以单独展开显示子选 ...

  9. CodeForces-166B-Polygons

    B. Polygons time limit per test:2 seconds memory limit per test:256 megabytes input:standard input o ...

  10. typedef用法和陷阱

    一.typedef的用法 1.用typedef来声明新的类型名,来代替已有的类型名,也就是给类型起别名.比如 typedef float REAL; //用REAL来代表float类型 REAL a; ...