1:“物尽其用”,但给spark分配多个机器后,先需配置spark-submit shell如下:

/usr/local/spark/bin/spark-submit \
--class com.spark.test.Top3UV \
--num-executors 3 \
--driver-memory 100m \
--executor-memory 100m \
--executor-cores 3 \
--files /usr/local/hive/conf/hive-site.xml \
--driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar \
/usr/local/jars/spTest-1.0-SNAPSHOT-jar-with-dependencies.jar \ executor的cpu核心数为3,并且executor数量为3,那么总cpu核心数就是9,task并行度推荐设置2~3倍的cpu-core才能“物尽其用”,因为难以保证所有task都在同一时间执行完成!

SparkConf conf = new SparkConf()

conf.set("spark.default.parallelism", "500")

2:重复使用的Rdd,需要缓存:StorageLevel.MEMORY_AND_DISK_SER_2()

可选择:
(1)内存缓存(2)内存磁盘缓存(3)带有序列化的缓存(4)带有副本的缓存-》以防数据丢失,形如 _2。
***复用的rdd还可以持久化到hdfs,使用checkpoint机制,如下 javaSparkContext.setCheckpointDir("hdfs://xxx:9000/checkPointPath");//设置checkpoint的存储路径
rdd_date_range.checkpoint();//对rdd_date_range的Rdd进行checkpoint存储(如果rdd使用cache则checkpoint数据从缓存中获取)
3:shuffle操作时优化
(1)开启 consolidateFile,这样map端产生的file数量会和下游stage的task数量一致,不会因为重复创建文件导致性能下降。
(2)"spark.shuffle.file.buffer", "128k",设置之后可减少map端数据输出到文件的次数减少,提升性能。
(3)"spark.reducer.maxSizeInFlight", "96m",下游stage拉取map形成file中的内容,每次拉取的数据量,值过小会导致多次网络通信。
(4)"spark.shuffle.io.maxRetries", "6",如果上游jvm出现stw的话,有可能下游获取file时会出现,无法获取的情况,这个参数代表可以重试的次数,"spark.shuffle.io.retryWait", "10s"而这个参数设定每次重试的间隔时间。
4:使用  fastUtil工具  代替jdk中带有的基础数据类型,减小内存开销;如:ArrayList或者HashMap等。
5:使用kryo序列化工具,这样序列化数据的速度能够提升,而且能够减小内存的开销;***但要注意的是
使用kryo序列化,如果涉及到自定义类型必须要注册,这样才能被kryo序列化***
6:spark1.2.x 以后默认使用sort shuffle manager,但如果没有必要使用排序功能可以在SparkConf中设置即可;
如下:
new SparkConf().set("spark.shuffle.manager","hash"); ***当然spark1.5.x以后又出现了tungsten-sort shuffle manager,要比sort shuffle manager性能更好***
(如果使用sort shuffle manager可以通过new SparkConf().set("spark.shuffle.sort.bypassMergeThreshold","350");如果实际task的数量大于350才开启sort shuffle manager)
7:如果在某处使用了spark sql,那么这个阶段的partition数量是不受控制的spark.default.parallelism设置控制的,如果想要设置需要使用repartition方法来设置实际的partition数量;
如下:
actionDF.javaRDD().repartition(1000);//在使用DataFrame转化成javaRDD的时候,使用repartition来提高实际的数据分块数量,从而提高并行度。
8:如果可用内存比较大的话,那么map操作可以使用mapPartitions来代替;
如:
rdd.mapToPair使用rdd.mapPartitionsToPair来代替,这样会一次性获得rdd中的某个partition,方法变成迭代的方式仅仅执行一次(但是这样非常大的可能导致oom直接挂掉);
rdd.mapPartitionsToPair(new PairFlatMapFunction<Iterator<Row>, Object, Object>() {
@Override
public Iterable<Tuple2<Object, Object>> call(Iterator<Row> rowIterator) throws Exception {
return null;
}
});
return rdd.mapToPair(new PairFunction<Row, String, Row>() {
@Override
public Tuple2<String, Row> call(Row row) throws Exception {
return new Tuple2<String, Row>(row.getString(2), row);
}
});
9:shuffle阶段,在reduce中有时需要调节拉取数据时内存缓冲区(从map端输出的action触发job计算的文件),默认是48MB,如果当数据量特别大的时候很有可能出现OOM的问题,这个问题除了增加硬件条件外,必须通过牺牲性能来换取执行能力了;
调整参数:
将默认48MB下调到10MB,增加数据拉取(增加了网络通信次数)的次数,来避免OOM
new SparkConf().set("spark.reducer.maxSizeInFlight","10");
10:如果在日志中出现了shuffle file not found 错误! 很可能是由于reduce时executor的jvm发生gc导致了reduce阶段无法获得文件,
解决问题可以通过,增加重试次数,并调节重试的周期:
.set("spark.shuffle.io.maxRetries",3);//默认重试次数是3次,可以调成60
.set("spark.shuffle.io.retryWait",5);//默认每隔5s重试一次,可以调成60
11:如果报错 Scala.Math(NULL) 类似于这种异常,那就是说明在算子中出现了null值的直接返回。
12:spark默认情况下cache缓存配置占比为spark.storage.memoryFraction:0.6,我们可以调整的小些如0.3,必要的时候可以使用persist进行内存+磁盘的缓存方式(StorageLevel.MEMORY_AND_DISK())进行缓存;这样能够保证运行spark核心业务的各种算子能够有足够的运行空间,防止由于内存不足并且频繁的GC而造成spark作业执行的卡顿。

spark优化参数调节和故障参数调节的更多相关文章

  1. (转)linux IO 内核参数调优 之 参数调节和场景分析

    1. pdflush刷新脏数据条件 (linux IO 内核参数调优 之 原理和参数介绍)上一章节讲述了IO内核调优介个重要参数参数. 总结可知cached中的脏数据满足如下几个条件中一个或者多个的时 ...

  2. inux IO 内核参数调优 之 参数调节和场景分析

    http://backend.blog.163.com/blog/static/2022941262013112081215609/ http://blog.csdn.net/icycode/arti ...

  3. 【经验总结】tcp_tw_recycle参数引发的故障

    tcp_tw_recycle参数引发的故障 By Eric 故障描述: 2010年9月7日,新上线的手机游戏论坛有部分地区用户反应登陆游戏时出现不能登陆或登陆超时等情况,观察用户同时在线数量开始下降情 ...

  4. Spark性能测试报告与调优参数

    1.代码中尽量避免group by函数,如果需要数据聚合,group形式的为rdd.map(x=>(x.chatAt(0),x)).groupbyKey().mapValues((x=>x ...

  5. loadrunner 脚本优化-参数化之Parameter List参数同行取值

    脚本优化-参数化之Parameter List参数同行取值 by:授客 QQ:1033553122 select next row 记录选择方式 Same line as,这个选项只有当参数多余一个时 ...

  6. loadrunner 脚本优化-参数化之Parameter List参数取值

    脚本优化-参数化之Parameter List参数取值 by:授客 QQ:1033553122 参数取值选项 Select next row Update value on 以上两个选项是改变参数化取 ...

  7. MySQL性能优化方法一:缓存参数优化

    原文链接:http://isky000.com/database/mysql-perfornamce-tuning-cache-parameter 数据库属于 IO 密集型的应用程序,其主要职责就是数 ...

  8. 小记---------spark优化之更优分配资源

      spark优化:在一定范围之内,增加资源与性能的提升是成正比的. 因此,       一个cpu core  执行一个task线程. task数: 若有 cpu core 2个.num-execu ...

  9. spark优化项

    一.Shuffle优化项 1.Shuffle优化配置 - spark.shuffle.file.buffer 默认值:32k 参数说明:该参数用于设置shuffle write task的Buffer ...

随机推荐

  1. 有了GPRS为什么还要LoRa和NB-IoT?【转】

    转自:https://blog.csdn.net/i_am_Banmei2/article/details/81869724 与其说是GPRS和NB-IoT的比较,不如说是传统网络与新兴网络的比较,我 ...

  2. 仿stl+函数模板

    #include<iostream> using namespace std; template<class T> void output(T begin, T end) { ...

  3. C# 最牛逼的Utility工具类

    完整代码: using System; using System.Collections.Specialized; using System.IO; using System.Net; using S ...

  4. C# 微信开发-----微信会员卡(一)

    这是微信的官方文档:https://mp.weixin.qq.com/wiki?t=resource/res_main&id=mp1451025283,能看懂的朋友就请不要往下看了,我是看不懂 ...

  5. postgresql9.1数据库加解密

    --如下为postgresql9.1数据库加解密模块配置 --设置schemapsql -U postgres -h localhostset schema 'sbdc';--生成日志\o E:/sh ...

  6. iOS开发之微信平台分享

    在工程开始之前应该先准备在微信开放平台申请的appid,从微信平台下载sdk文件.下面开始步骤讲述 1.先将SDK导入工程目录 2.在info.plist文件设置相关信息,包括appid标识.白名单 ...

  7. CoopyIII开发文档之控制LED灯开关

    作者:那年:QQ:843681152 一. CooplyIII环境的搭建 工欲善其事必先利器,如何搭建CooplyIII的开发环境是一切coolpyIII开发的前提.CoolpyIII作者内cool超 ...

  8. Linux基础性笔记

    声明:这是我整理的韩顺平老师的课程,仅供自己参考!!! 给自己的一碗汤:学东西要专一(比较难) 第一节 Linux特点总结: 1. 免费的.开源的. 2. 支持多线程(并发).多用户. 3. 安全性比 ...

  9. NumPy的思考……

    问题: 为什么第一次输出矩阵形式的数据,第二次输出list形式的数据? 详见代码: a = np.array([[1, 2], [3, 4]]) print(a) print('ndim :', a. ...

  10. Spark SQL大数据处理并写入Elasticsearch

    SparkSQL(Spark用于处理结构化数据的模块) 通过SparkSQL导入的数据可以来自MySQL数据库.Json数据.Csv数据等,通过load这些数据可以对其做一系列计算 下面通过程序代码来 ...