Spark1.0.0 history server 配置
在执行Spark应用程序的时候,driver会提供一个webUI给出应用程序的执行信息。可是该webUI随着应用程序的完毕而关闭port,也就是说,Spark应用程序执行完后,将无法查看应用程序的历史记录。Spark history server就是为了应对这样的情况而产生的。通过配置,Spark应用程序在执行完应用程序之后,将应用程序的执行信息写入指定文件夹。而Spark
history server能够将这些执行信息装载并以web的方式供用户浏览。
- spark.eventLog.enabled 是否记录Spark事件,用于应用程序在完毕后重构webUI。
- spark.eventLog.dir 假设spark.eventLog.enabled为 true,该属性为记录spark事件的根文件夹。在此根文件夹中,Spark为每一个应用程序创建分文件夹。并将应用程序的事件记录到在此文件夹中。
用户能够将此属性设置为HDFS文件夹,以便history server读取历史记录文件。
- spark.yarn.historyServer.address Spark history server的地址(不要加http://)。这个地址会在Spark应用程序完毕后提交给YARN RM,然后RM将信息从RM UI写到history server UI上。
- SPARK_DAEMON_MEMORY 分配给history server的内存大小,默认512m。
- SPARK_DAEMON_JAVA_OPTS history server的JVM选择。默觉得空。
- SPARK_PUBLIC_DNS history server的公网地址,假设不设置,能够用内网地址来訪问。
默觉得空。
- SPARK_HISTORY_OPTS history server的属性设置。属性如以下所看到的。默觉得空。
| 属性名称 | 默认 | 含义 |
| spark.history.updateInterval | 10 | 以秒为单位。多长时间history server显示的信息进行更新。
每次更新都会检查持久层事件日志的不论什么变化。 |
| spark.history.retainedApplications | 250 | 在history server上显示的最大应用程序数量,假设超过这个值,旧的应用程序信息将被删除。 |
| spark.history.ui.port | 18080 | history server的默认訪问port |
| spark.history.kerberos.enabled | false | 是否使用kerberos方式登录訪问history server,对于持久层位于安全集群的HDFS上是实用的。
假设设置为true,就要配置以下的两个属性。 |
| spark.history.kerberos.principal | 空 | 用于history server的kerberos主体名称 |
| spark.history.kerberos.keytab | 空 | 用于history server的kerberos keytab文件位置 |
| spark.history.ui.acls.enable | false | 授权用户查看应用程序信息的时候是否检查acl。假设启用,不管应用程序的spark.ui.acls.enable怎么设置。都要进行授权检查,仅仅有应用程序全部者和spark.ui.view.acls指定的用户能够查看应用程序信息;假设禁用,不做不论什么检查。 |
watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYm9va19tbWlja3k=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="">
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop1:8000/sparklogs
spark.yarn.historyServer.address hadoop1:18080
[hadoop@hadoop1 conf]$ cd ..
spark.eventLog.enabled true
spark.eventLog.dir hdfs://hadoop1:8000/sparklogs
spark.yarn.historyServer.address hadoop1:18080
hadoop@wyy:/app/hadoop/spark100/conf$ cd ..
点随意应用程序,能够查看应用程序执行信息:
- driver在SparkContext使用stop()方法后才将完整的信息提交到指定的文件夹,假设不使用stop()方法,即使在指定文件夹中产生该应用程序的文件夹,history server也将不会载入该应用程序的执行信息。所以假设直接使用Spark1.0.0源码/examples/src/main/python/pi.py。就无法显示其应用程序,在最后加上一行sc.stop()后,就能够显示。
- history server增强版代码能够參看https://github.com/apache/spark/pull/718/files#r13398770
Spark1.0.0 history server 配置的更多相关文章
- Spark History Server配置使用
Spark history Server产生背景 以standalone运行模式为例,在运行Spark Application的时候,Spark会提供一个WEBUI列出应用程序的运行时信息:但该WEB ...
- Spark history Server配置实用
Spark history Server产生背景 以standalone运行模式为例,在运行Spark Application的时候,Spark会提供一个WEBUI列出应用程序的运行时信息:但该WEB ...
- Spark1.0.0 开发环境高速搭建
在本系列博客中.为了解析一些概念.解析一些架构.代码測试.搭建了一个实验平台.例如以下图所看到的: 本实验平台是在一台物理机上搭建的.物理机的配置是16G内存,4核8线程CPU ...
- Spark1.0.0 监测方法
Spark1.0.0能够通过下面几种方式来对Spark应用程序进行监控: Spark应用程序的WebUI或者Spark Standalone的集群监控 指标,然后通过支持指标收集的集群监控 ...
- Spark1.0.0 学习路径
2014-05-30 Spark1.0.0 Relaease 经过11次RC后最终公布.尽管还有不少bug,还是非常令人振奋. 作为一个骨灰级的老IT,经过非常成一段时间的消沉,再次被点燃 ...
- Spark1.0.0 学习路线指导
转自:http://www.aboutyun.com/thread-8421-1-1.html 问题导读1.什么是spark?2.spark编程模型是什么?3.spark运维需要具有什么知识?4.sp ...
- Spark1.0.0 属性配置
1:Spark1.0.0属性配置方式 Spark属性提供了大部分应用程序的控制项,而且能够单独为每一个应用程序进行配置. 在Spark1.0.0提供了3种方式的属性配置: Sp ...
- Spark1.0.0属性配置
1:Spark1.0.0属性配置方式 Spark属性提供了大部分应用程序的控制项,并且可以单独为每个应用程序进行配置. 在Spark1.0.0提供了3种方式的属性配置: SparkConf方式 Spa ...
- 最新版spark1.1.0集群安装配置
和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 很多教程提到要安装java和scala,但我发现spark最新版本是包含scala的,JRE采用linux内嵌的 ...
随机推荐
- 【C++】基础及引用
输出 #include "iostream" //包含c++的头文件 //iostream.h using namespace std; //使用命名空间 std 标准的命名空间 ...
- qwb与学姐 (带秩并查集)
qwb与学姐 Time Limit: 1 Sec Memory Limit: 128 MBSubmit: 149 Solved: 54[Submit][Status][Web Board] Des ...
- 离线情报分析工具CaseFile
离线情报分析工具CaseFile CaseFile是Maltego的姊妹工具,功能非常类似于Maltego.CaseFile主要针对数据进行离线分析,缺少Maltego的数据采集功能.它可以导入各 ...
- 20162303 实验一 Java开发环境的熟悉(Linux + Eclipse)
北京电子科技学院(BESTI) 实 验 报 告 课程:程序设计与数据结构 班级: 1623 姓名: 石亚鑫 学号:20162303 成绩: 2分 指导教师:娄嘉鹏 王志强 实验日期:3月17日 实验密 ...
- codevs 2185 最长公共上升子序列--nm的一维求法
2185 最长公共上升子序列 时间限制: 1 s 空间限制: 32000 KB 题目等级 : 钻石 Diamond 题目描述 Description 熊大妈的奶牛在小沐沐的熏陶下开始研究信息题目 ...
- 8VC Venture Cup 2016 - Elimination Round E. Simple Skewness 暴力+二分
E. Simple Skewness 题目连接: http://www.codeforces.com/contest/626/problem/E Description Define the simp ...
- opensuse个人初始化
Auth: jin Date: 20140414 sourcedir=/mnt/shelldir=/home/shell/userdir= /home/jin#mount /dev/sdb1 /mnt ...
- vs code 使用Git进行源代码管理
第一步:用vs code 打开一个空文件夹,如本示例Demo2, 第二步:点击左侧第三个图标“源代码管理”,然后再点击初始化存储库按钮 初始化之后界面现变成下图所示: 此时文件夹中会新增一个隐藏文件夹 ...
- Dependent Parameters in Concurrent Program using Special Value Set
Dependent Parameters in Oracle Applications Requirement: Say there is a concurrent program that lets ...
- 统计中的f检验和t检验的区别
参考:http://emuch.net/html/201102/2841741.html 首先是目的不同.F检验用于比较两种分析方法是否存在显著差异(单边检验)或者两种方法紧密度是否存在差异(双边检验 ...