Spark资源配置(核数与内存)
转载自:http://blog.csdn.net/zrc199021/article/details/54020692
关于所在节点核数怎么看?
======================================================================
# 总核数 = 物理CPU个数 X 每颗物理CPU的核数
# 总逻辑CPU数 = 物理CPU个数 X 每颗物理CPU的核数 X 超线程数
# 查看物理CPU个数
cat /proc/cpuinfo| grep "physical id"| sort| uniq| wc -l
# 查看每个物理CPU中core的个数(即核数)
cat /proc/cpuinfo| grep "cpu cores"| uniq
# 查看逻辑CPU的个数
cat /proc/cpuinfo| grep "processor"| wc -l
======================================================================
spark资源主要就是core和memery。
spark主题功能分三部分:spark RDD,sparkSQL,spark shell,如果每个部分的功能都要用,那么每块都要占用资源。
其中,spark RDD和spark shell 是动态分配占用资源的,sparkSQL是静态分配资源的(启动后即一直占着分配的资源)
spark分配的总体资源在哪里看?
- cat /home/mr/spark/conf/spark-env.sh
- JAVA_HOME=/usr/java/jdk
- SPARK_HOME=/home/mr/spark
- SPARK_PID_DIR=/home/mr/spark/pids
- SPARK_LOCAL_DIRS=/data2/zdh/spark/tmp,/data3/zdh/spark/tmp,/data4/zdh/spark/tmp
- SPARK_WORKER_DIR=/data2/zdh/spark/work
- SPARK_LOG_DIR=/data1/zdh/spark/logs
- SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18088-Dspark.history.retainedApplications=500"
- SPARK_MASTER_WEBUI_PORT=18080
- SPARK_WORKER_WEBUI_PORT=18081
- SPARK_WORKER_CORES=25
- SPARK_WORKER_MEMORY=150g
- SPARK_DAEMON_MEMORY=2g
- SPARK_LOCAL_HOSTNAME=`hostname`
- YARN_CONF_DIR=/home/mr/yarn/etc/hadoop
SparkSQL的总体资源在哪看?
- [root@vmax47 conf]# cat sparksql-defaults.conf
- spark.serializer=org.apache.spark.serializer.KryoSerializer
- spark.driver.extraJavaOptions=-Xss32m-XX:PermSize=128M-XX:MaxPermSize=512m
- spark.driver.extraClassPath=/home/mr/spark/libext/*
- spark.executor.extraClassPath=/home/mr/spark/libext/*
- spark.executor.memory=10g
- spark.eventLog.enabled=true
- spark.eventLog.dir=/data1/zdh/spark/logs/eventLog
- spark.history.fs.logDirectory=/data1/zdh/spark/logs/eventLog
- spark.worker.cleanup.enabled=true
- spark.shuffle.consolidateFiles=true
- spark.ui.retainedJobs=200
- spark.ui.retainedStages=200
- spark.deploy.retainedApplications=100
- spark.deploy.retainedDrivers=100
- spark.speculation=true
- spark.speculation.interval=1000
- spark.speculation.multiplier=4
- spark.speculation.quantile=0.85
- spark.shuffle.service.enabled=false
- spark.dynamicAllocation.enabled=false
- spark.dynamicAllocation.minExecutors=0
- spark.dynamicAllocation.maxExecutors=2147483647
- spark.sql.broadcastTimeout=600
- spark.yarn.queue=mr
- spark.master=spark://vmax47:7077,SPARK49:7077
- spark.deploy.recoveryMode=ZOOKEEPER
- spark.deploy.zookeeper.url=SPARK49:2181,HADOOP50:2181,vmax47:2181
- spark.ui.port=4100
- spark.driver.memory=40G
- spark.cores.max=30
查看Spark资源可从18080端口查看:
Spark资源配置(核数与内存)的更多相关文章
- Spark内核| 调度策略| SparkShuffle| 内存管理| 内存空间分配| 核心组件
1. 调度策略 TaskScheduler会先把DAGScheduler给过来的TaskSet封装成TaskSetManager扔到任务队列里,然后再从任务队列里按照一定的规则把它们取出来在Sched ...
- Spark Tungsten揭秘 Day4 内存和CPU优化使用
Spark Tungsten揭秘 Day4 内存和CPU优化使用 今天聚焦于内存和CPU的优化使用,这是Spark2.0提供的关于执行时的非常大的优化部分. 对过去的代码研究,我们会发现,抽象的提高, ...
- Spark Tungsten揭秘 Day3 内存分配和管理内幕
Spark Tungsten揭秘 Day3 内存分配和管理内幕 恭喜Spark2.0发布,今天会看一下2.0的源码. 今天会讲下Tungsten内存分配和管理的内幕.Tungsten想要工作,要有数据 ...
- [Spark性能调优] 第四章 : Spark Shuffle 中 JVM 内存使用及配置内幕详情
本课主题 JVM 內存使用架构剖析 Spark 1.6.x 和 Spark 2.x 的 JVM 剖析 Spark 1.6.x 以前 on Yarn 计算内存使用案例 Spark Unified Mem ...
- 【Spark调优】内存模型与参数调优
[Spark内存模型] Spark在一个executor中的内存分为3块:storage内存.execution内存.other内存. 1. storage内存:存储broadcast,cache,p ...
- Spark 1.x 爆内存相关问题汇总及解
Spark 1.x 爆内存相关问题汇总及解决 OOM # 包括GC Overhead limitjava.lang.OutOfMemoryError # on yarn org.apache.hado ...
- spark性能调优(四) spark shuffle中JVM内存使用及配置内幕详情
转载:http://www.cnblogs.com/jcchoiling/p/6494652.html 引言 Spark 从1.6.x 开始对 JVM 的内存使用作出了一种全新的改变,Spark 1. ...
- Spark Shuffle 中 JVM 内存使用及配置内幕详情
本课主题 JVM 內存使用架构剖析 Spark 1.6.x 和 Spark 2.x 的 JVM 剖析 Spark 1.6.x 以前 on Yarn 计算内存使用案例 Spark Unified M ...
- Spark 介绍(基于内存计算的大数据并行计算框架)
Spark 介绍(基于内存计算的大数据并行计算框架) Hadoop与Spark 行业广泛使用Hadoop来分析他们的数据集.原因是Hadoop框架基于一个简单的编程模型(MapReduce),它支持 ...
- 获取指定订阅下所有Azure ARM虚拟机配置(CPU核数,内存大小,磁盘信息)的使用情况
脚本内容: <# .SYNOPSIS This script grab all ARM VM VHD file in the subscription and caculate VHD size ...
随机推荐
- [python](windows)分布式进程问题:pickle模块不能序列化lambda函数
运行错误:_pickle.PicklingError: Can't pickle <function <lambda> at 0x000002BAAEF12F28>: attr ...
- jmeter之接口测试(http接口测试)
基础知识储备 一.了解jmeter接口测试请求接口的原理 客户端--发送一个请求动作--服务器响应--返回客户端 客户端--发送一个请求动作--jmeter代理服务器---服务器--jmeter代理服 ...
- docker 安装mysql示例
docker pull mysql 错误的启动: [root@localhost ~]# docker run --name mysql01 -d mysql 42f09819908bb72dd99a ...
- JWT ajax java spingmvc 简洁教程
1.添加依赖 <dependency> <groupId>io.jsonwebtoken</groupId> <artifactId>jjwt</ ...
- Java中char和String的相互转换
转自:http://blog.csdn.net/yaokai_assultmaster/article/details/52082763 Java中char是一个基本类型,而String是一个引用类型 ...
- Lua 语言变量
Lua 变量 变量在使用前,必须在代码中进行声明,即创建该变量.编译程序执行代码之前编译器需要知道如何给语句变量开辟存储区,用于存储变量的值. Lua 变量有三种类型:全局变量.局部变量.表中的域. ...
- kali-rolling安装使用sonarqube教程(docker方式)
一.说明 最近要找一款代码审计工具,Fortify SCA太贵,VisualCodeGrepper不太好用.在freebuf上看到可用sonarqube来建代码自动化扫描系统所以也来试一试. 直接安装 ...
- CST时区,MYSQL与JAVA-WEB服务器时间相差13个小时的问题
最近倒腾了一台阿里云主机,打算在上面装点自己的应用.使用docker安装了安装mysql后,发现数据库的存储的时间与java-web应用的时间差8个小时,初步怀疑是docker容器时区的问题.经过一系 ...
- vscode setting.jsonxx
// Place your settings in this file to overwrite the default settings { "files.autoGuessEncodin ...
- keepalived高可用集群。
keepalived故障切换转移原理1vrrp协议:(vritual router redundancy protocol)虚拟路由冗余协议,2故障转移.keepalived三大功能1实现物理高可用, ...