Spark - [03] 资源调度模式
题记部分
一、Local模式
1.1、概述
Local模式就是运行在一台计算机上的模式,通常就是用于在本机上练手和测试的。
可以通过以下几种方式设置Master
(1)local:所欲计算都运行在一个线程当中,没有任何并行计算,通常我们在本机执行一些测试代码,或者练手,就用这种模式。
(2)local[K]:指定使用几个线程来运行计算,比如local[4]就是运行4个Worker线程。通常我们的CPU有几个Core,就指定几个线程,最大化利用CPU的计算能力。
(3)local[*]:这种模式直接帮你按照CPU最多Cores来设置线程数了。
1.2、安装使用及测试
(1)将Spark的tar包上传到集群的任意节点的合适目录并解压
(2)使用spark-submit求SparkPi
bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--executor-memory 1G \
--total-executor-cores 2 \
./exemples/jars/spark-examples_2.11-2.2.1.jar \
100

1.3、spark-submit 参数说明
| 参数名 | 参数说明 |
--master |
master的地址,提交任务到哪里执行(spark://host:port,yarn,local) |
--deploy-mode |
在本地(client)启动 driver 或在 cluster 上启动,默认是 client |
--class |
应用程序的主类,仅针对 java 或 scala 应用 |
--name |
应用程序的名称 |
--jars |
用逗号分隔的本地jar包,设置后,这些jar将包含在 driver 和 executor 的classpath下 |
--packages |
包含在 driver 和 executor 的 classpath 中的 jar 的 maven 坐标 |
--execlude-packages |
为了避免冲突而指定不包含的 package |
--repositories |
远程 repository
|
--conf PROP=VALUE |
指定 spark 的配置属性,例如 --conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m" |
--properties-file |
加载的配置文件,默认为 conf/spark-defaults.conf
|
--driver-memory |
Driver 内存,默认 1G
|
--driver-java-options |
传给 driver 的额外的 Java 选项
|
--driver-library-path |
传给 driver 的额外的库路径
|
--driver-class-path |
传给 driver 的额外的类路径
|
--executor-memory |
每个 executor 的内存,默认是 1G
|
--total-executor-cores |
所有 executor 总共的核数。仅仅在 mesos 或者 standalone 下使用
|
--num-executors |
启动的 executor 数量。默认为 2。在 yarn 下使用
|
--executor-core |
每个 executor 的核数。在 yarn 或者 standalone 下使用
|
二、Standalone模式
三、HA
四、Yarn模式
五、Mesos模式
— 业精于勤荒于嬉,行成于思毁于随 —
Spark - [03] 资源调度模式的更多相关文章
- 【原】Spark不同运行模式下资源分配源码解读
版权声明:本文为原创文章,未经允许不得转载. 复习内容: Spark中Task的提交源码解读 http://www.cnblogs.com/yourarebest/p/5423906.html Sch ...
- Spark Core_资源调度与任务调度详述
转载请标明出处http://www.cnblogs.com/haozhengfei/p/0593214ae0a5395d1411395169eaabfa.html Spark Core_资源调度与任务 ...
- Spark集群模式&Spark程序提交
Spark集群模式&Spark程序提交 1. 集群管理器 Spark当前支持三种集群管理方式 Standalone-Spark自带的一种集群管理方式,易于构建集群. Apache Mesos- ...
- Spark的 运行模式详解
Spark的运行模式是多种多样的,那么在这篇博客中谈一下Spark的运行模式 一:Spark On Local 此种模式下,我们只需要在安装Spark时不进行hadoop和Yarn的环境配置,只要将S ...
- Spark Core 资源调度与任务调度(standalone client 流程描述)
Spark Core 资源调度与任务调度(standalone client 流程描述) Spark集群启动: 集群启动后,Worker会向Master汇报资源情况(实际上将Worker的资 ...
- spark跑YARN模式或Client模式提交任务不成功(application state: ACCEPTED)
不多说,直接上干货! 问题详情 电脑8G,目前搭建3节点的spark集群,采用YARN模式. master分配2G,slave1分配1G,slave2分配1G.(在安装虚拟机时) export SPA ...
- spark跑YARN模式或Client模式提交任务不成功(application state: ACCEPTED)(转)
不多说,直接上干货! 问题详情 电脑8G,目前搭建3节点的spark集群,采用YARN模式. master分配2G,slave1分配1G,slave2分配1G.(在安装虚拟机时) export SPA ...
- spark 四种模式
Spark 三种运行模式 一:Spark On Local 此种模式下,我们只需要在安装Spark时不进行hadoop和Yarn的环境配置,只要将Spark包解压即可使用,运行时Spark目 ...
- spark的standlone模式安装和application 提交
spark的standlone模式安装 安装一个standlone模式的spark集群,这里是最基本的安装,并测试一下如何进行任务提交. require:提前安装好jdk 1.7.0_80 :scal ...
- 【待补充】Spark 集群模式 && Spark Job 部署模式
0. 说明 Spark 集群模式 && Spark Job 部署模式 1. Spark 集群模式 [ Local ] 使用一个 JVM 模拟 Spark 集群 [ Standalone ...
随机推荐
- nvm安装node.js无法使用
前情 最近在使用某此第三方模块需要依赖不同的node版本,于是想通nvm来管理node版本 坑 网上下载nvm-window的安装包,一步步傻瓜式安装下去,发现nrm无法使用,设置环境变量也没有用,再 ...
- 前端每日一知之css隐藏页面元素
脑图在线链接 本文内容依据[js每日一题]公众号精彩文章总结而来
- 人工智能大语言模型起源篇,低秩微调(LoRA)
上一篇: <规模法则(Scaling Law)与参数效率的提高> 序言:您在找工作时会不会经常听到LoRA微调,这项技术的来源就是这里了. (12)Hu.Shen.Wallis.Allen ...
- ng-alain: st 简化表格
https://github.com/ng-alain/delon/blob/master/packages/abc/st/index.zh-CN.md st 并不是在创造另一个表格组件,而是在 nz ...
- 中电金信鲸视:以AI视觉技术为复杂行业场景装上“火眼金睛”
作为人工智能和计算机视觉的交叉领域,智能视觉通过仿生人类视觉机能,对不同形式的视觉输入进行处理.理解和决策.现今,智能视觉已成为应用广泛.市场覆盖大.形式多样的产业方向,得到了国家政策的大力支持. ...
- 中电金信:技术实践|Flink多线程实现异构集群的动态负载均衡
导语:Apache Flink是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算.本文主要从实际案例入手并结合作者的实践经验,向各位读者分享当应用场景中异构集群无法做到负载均衡时,如何通 ...
- metasploit模块
模块类型 辅助模块(Auxiliary) 渗透攻击模块(Exploits) 后渗透攻击模块(Post) 攻击载荷模块(Payloads) 空指令模块(Nops) 编码器模块(Encoders) 后渗透 ...
- MFC-error C2589: “(”:“::”右边的非法标记
MFC-error C2589: "(":"::"右边的非法标记 错误信息 出错语句 问题原因 解决办法 错误信息 ① 错误 C2589 "(&quo ...
- 在Deepin系统上配置微软Windows远程桌面服务
. 前言 本文主要讲解如何在deepin系统上安装和配置Xrdp远程桌面. Xrdp是微软的远程桌面协议(Remote Desktop Protocol, RDP)的开源版本.在Linux系统上安装X ...
- 在Ubuntu WSL2里配置GDAL Docker环境
在Ubuntu WSL2里配置GDAL Docker环境 启用systemd # Ubuntu中执行 echo -e "[boot]\nsystemd=true" | sudo t ...