本篇博客主要是 sparksql 从初始开发注意的一些基本点以及力所能及的可优化部分的介绍:  

所使用spark版本:2.0.0       scala版本:2.11.8

1. SparkSession的初始化:

val sparkSession = SparkSession.builder().master("local[*]").appName("AppName").config("spark.sql.warehouse.dir", "file:///D:/XXXX/XXXX/spark-warehouse").config("spark.sql.shuffle.partitions", 50).getOrCreate()

  

注意点:

a.  spark.sql.warehouse.dir 需要显示设置,否则会抛出 Exception in thread "main" java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: file:...   错误

b. spark.sql.shuffle.partitions  指定 Shuffle 时 Partition 个数,也即 Reducer 个数。根据业务数据量测试调整最佳结果

Partition 个数不宜设置过大:

              Reducer(代指 Spark Shuffle 过程中执行 Shuffle Read 的 Task) 个数过多,每个 Reducer 处理的数据量过小。大量小 Task 造成不必要的 Task 调度开销与可能的资源调度开销(如果开启了 Dynamic Allocation)

            Reducer 个数过大,如果 Reducer 直接写 HDFS 会生成大量小文件,从而造成大量 addBlock RPC,Name node 可能成为瓶颈,并影响其它使用 HDFS 的应用

            过多 Reducer 写小文件,会造成后面读取这些小文件时产生大量 getBlock RPC,对 Name node 产生冲击

Partition 个数不宜设置过小:

            每个 Reducer 处理的数据量太大,Spill 到磁盘开销增大

            Reducer GC 时间增长

            Reducer 如果写 HDFS,每个 Reducer 写入数据量较大,无法充分发挥并行处理优势

2. 将非结构化数据转换为结构化数据DataFrame(本人用的自定义模式): 

    val rdd= sparkSession.sparkContext.textFile(path, 250)  // 默认split为2

    val schemaString = "time hour lic"   //结构化数据的列名,可理解为关系型数据库的列名

    val fields = schemaString.split(" ").map(fieldName => StructField(fieldName, StringType, nullable = true))   // 字段名  字段类型  是否可为空

    val schema = StructType(fields)      //上两步组装最终 createDataFrame 时需要的 schema

    val rowRDD = citySECRDD.map(_.split(",")).filter(attributes => attributes.length >= 6 && attributes(1).equals("2")&& attributes(0).split(" ").length > 1 && attributes(0).split(" ")(1).split(":").length > 1).map(attributes => {Row(attributes(0).trim,attributes(0).split(" "                   (1).split(":")(0).trim,attributes(2).trim,attributes(3).trim,attributes(4).trim,attributes(5).trim)})         //自定义一些过滤条件  以及组装最终的 row类型的RDD

    val df= sparkSession.createDataFrame(rowRDD, schema)       //将rdd装换成DataFrame

3. 两种缓存使用方式:

    1)df.persist(StorageLevel.MEMORY_ONLY)     //后续如果需要反复使用DF[DataFrame的简称],则就把此DF缓存起来                            
df.unpersist() //释放缓存 常用的两种序列化方式:MEMORY_ONLY->不加工在内存中存储 MEMORY_ONLY_SER->在内存中序列化存储(占用内存空间较小) 2)df.createOrReplaceTempView("table") sparkSession.sql("cache table table") // 以 sql 形式缓存DF
sparkSession.sql("uncache table table") //释放缓存

4.spark整合Hbase快速批量插入

  将计算结果写入Hbase:

      注意:1) 如果是带有shuffle过程的,shuffle计算之前使用select()提出只需要的字段然后再进行计算,因为shuffle特别耗费时间,写磁盘的过程,所以要能少写就少写。

df.foreachPartition(partition => {

      val hconf = HBaseConfiguration.create();

      hconf.set(zkClientPort, zkClientPortValue) //zk 端口

      hconf.set(zkQuorum, zkQuorumValue) //zk 地址
hconf.set(hbaseMaster, hbaseMasterValue) //hbase master
val myTable = new HTable(hconf, TableName.valueOf(tableName))
myTable.setAutoFlush(false, false) //关键点1
myTable.setWriteBufferSize(5 * 1024 * 1024) //关键点2
partition.foreach(x => { val column1 = x.getAs[String]("column1") //列1
val column2 = x.getAs[String]("column2") //列2
val column3 = x.getAs[Double]("column3") //列3
val date = dateStr.replace("-", "") // 格式化后的日期 val rowkey = MD5Hash.getMD5AsHex(Bytes.toBytes(column1+ date)) + Bytes.toBytes(hour)
val put = new Put(Bytes.toBytes(rowkey))
put.add("c1".getBytes(), "column1".getBytes(), licPlateNum.getBytes()) //第一列族 第一列
put.add("c1".getBytes(), "column2".getBytes(), hour.getBytes()) //第一列族 第二列
put.add("c1".getBytes(), "column3".getBytes(), interval.toString.getBytes()) //第一列族 第三列
put.add("c1".getBytes(), "date".getBytes(), date.getBytes()) //第一列族 第四列
myTable.put(put)
})
myTable.flushCommits() //关键点3
/*
*关键点1_:将自动提交关闭,如果不关闭,每写一条数据都会进行提交,是导入数据较慢的做主要因素。
关键点2:设置缓存大小,当缓存大于设置值时,hbase会自动提交。此处可自己尝试大小,一般对大数据量,设置为5M即可,本文设置为3M。
关键点3:每一个分片结束后都进行flushCommits(),如果不执行,当hbase最后缓存小于上面设定值时,不会进行提交,导致数据丢失。
注:此外如果想提高Spark写数据如Hbase速度,可以增加Spark可用核数量。
*/

5. spark任务提交shell脚本:

spark-submit --jars /XXX/XXX/hbase/latest/lib/hbase-protocol-0.96.1.1-cdh5.0.2.jar \
--master yarn\
--num-executors 200 \
--conf "spark.driver.extraClassPath=/share/apps/hbase/latest/lib/hbase-protocol-0.96.1.1-cdh5.0.2.jar" \
--conf "spark.executor.extraClassPath=/share/apps/hbase/latest/lib/hbase-protocol-0.96.1.1-cdh5.0.2.jar" \
--conf spark.driver.cores=2 \
--conf spark.driver.memory=10g \
--conf spark.driver.maxResultSize=2g \
--conf spark.executor.cores=6 \
--conf spark.executor.memory=10g \
--conf spark.shuffle.blockTransferService=nio \
--conf spark.memory.fraction=0.8 \
--conf spark.shuffle.memoryFraction=0.4 \
--conf spark.default.parallelism=1000 \
--conf spark.sql.shuffle.partitions=400 \ 默认200,如果项目中代码设置了此选项,则代码设置级别优先,会覆盖此处设置
--conf spark.shuffle.consolidateFiles=true \
--conf spark.shuffle.io.maxRetries=10 \
--conf spark.scheduler.listenerbus.eventqueue.size=1000000 \
--class XXXXX\ 项目启动主类引用
--name zzzz \
/data/XXX/XXX-jar-with-dependencies.jar \ 项目jar包
"参数1" "参数2"

  

注: 红色部分是Hbase需要的配置,同时需要在spark集群的spark-defaults.conf 里面配置

spark.driver.extraClassPath  和  spark.executor.extraClassPath   直指 hbase-protocol-0.96.1.1-cdh5.0.2.jar 路径

先写到这里吧,后续会继续完善通过sparkUi 优化细节以及提交spark任务的时候 如何分配 executor.cores 和 executor.memory。

spark 基础开发 Tips总结的更多相关文章

  1. Ubuntu14.04或16.04下Hadoop及Spark的开发配置

    对于Hadoop和Spark的开发,最常用的还是Eclipse以及Intellij IDEA. 其中,Eclipse是免费开源的,基于Eclipse集成更多框架配置的还有MyEclipse.Intel ...

  2. Spark:利用Eclipse构建Spark集成开发环境

    前一篇文章“Apache Spark学习:将Spark部署到Hadoop 2.2.0上”介绍了如何使用Maven编译生成可直接运行在Hadoop 2.2.0上的Spark jar包,而本文则在此基础上 ...

  3. 最全的spark基础知识解答

    原文:http://www.36dsj.com/archives/61155 一. Spark基础知识 1.Spark是什么? UCBerkeley AMPlab所开源的类HadoopMapReduc ...

  4. Spark(六)Spark之开发调优以及资源调优

    Spark调优主要分为开发调优.资源调优.数据倾斜调优.shuffle调优几个部分.开发调优和资源调优是所有Spark作业都需要注意和遵循的一些基本原则,是高性能Spark作业的基础:数据倾斜调优,主 ...

  5. 转】[1.0.2] 详解基于maven管理-scala开发的spark项目开发环境的搭建与测试

    场景 好的,假设项目数据调研与需求分析已接近尾声,马上进入Coding阶段了,辣么在Coding之前需要干马呢?是的,“统一开发工具.开发环境的搭建与本地测试.测试环境的搭建与测试” - 本文详细记录 ...

  6. FusionInsight大数据开发---Spark应用开发

    Spark应用开发 要求: 了解Spark基本原理 搭建Spark开发环境 开发Spark应用程序 调试运行Spark应用程序 YARN资源调度,可以和Hadoop集群无缝对接 Spark适用场景大多 ...

  7. Spark基础学习精髓——第一篇

    Spark基础学习精髓 1 Spark与大数据 1.1 大数据基础 1.1.1 大数据特点 存储空间大 数据量大 计算量大 1.1.2 大数据开发通用步骤及其对应的技术 大数据采集->大数据预处 ...

  8. Windows下搭建Spark+Hadoop开发环境

    Windows下搭建Spark+Hadoop开发环境需要一些工具支持. 只需要确保您的电脑已装好Java环境,那么就可以开始了. 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和H ...

  9. Centos 基础开发环境搭建之Maven私服nexus

    hmaster 安装nexus及启动方式 /usr/local/nexus-2.6.3-01/bin ./nexus status Centos 基础开发环境搭建之Maven私服nexus . 软件  ...

随机推荐

  1. 如何使用 adb 命令实现自动化测试

    如何使用 adb 命令实现自动化测试 一.前提: 1.打开手机调试模式,确保手机已正常连接电脑,可在电脑上通过adb devices命令查看,结果如下说明连接成功: List of devices a ...

  2. zookeeper - java操作

    ZKUtils.java package test; import java.io.IOException; import java.util.concurrent.CountDownLatch; i ...

  3. Linux 系统下 centOS 7 ipconfig 提示没有安装

    首先更正一下,在Linux系统下,查看IP地址,指令是ifconfig 没有root权限情况下,安装指令为 sudo yum -y install net-tool 有root权限的话,直接执行 yu ...

  4. 一、vue:如何新建一个vue项目

    比较好用的一个脚手架:https://a1029563229.gitbooks.io/vue/content/cooking-cli.html 创建一个vue项目的流程: 1.安装node,版本号必须 ...

  5. ReactJS表单handleChange

    handleInputChange = (event) => { const target = event.target; const type = target.type; const val ...

  6. ES6-Generator

    Generator 关键词:状态机,遍历器,同步方式写异步方法 基本概念 形式上,Generator函数是一个普通函数,但是有两个特征. function关键字与函数名之间有一个星号. 二是,函数体内 ...

  7. 短时傅里叶变换(Short Time Fourier Transform)原理及 Python 实现

    原理 短时傅里叶变换(Short Time Fourier Transform, STFT) 是一个用于语音信号处理的通用工具.它定义了一个非常有用的时间和频率分布类, 其指定了任意信号随时间和频率变 ...

  8. ALTER 语句总结

    一.基础语句 ALTER TABLE 语句 ALTER TABLE 语句用于在现有表中添加.删除或修改列. <!--若要向表中添加列,请使用以下语法:--> ALTER TABLE tab ...

  9. SQL索引未使用

    针对自己曾经经历过的一道面试题,那些情况不走索引,于是搜索网络和书籍的一些资料,整理如下: 1.查询谓词没有使用索引的主要边界,换句话说就是select *,可能会导致不走索引.比如,你查询的是SEL ...

  10. 只能在堆上生成的对象 VS. 只能在栈上生成的对象

    1. 只能在堆上 即禁止在栈上生成.如何实现? 当对象建立在栈上面时,是由编译器分配内存空间的,调用构造函数来构造栈对象.如果类的析构函数是私有的,则编译器不会在栈空间上为类对象分配内存. 所以,只需 ...