Spark1.0.0能够通过下面几种方式来对Spark应用程序进行监控:
  • Spark应用程序的WebUI或者Spark Standalone的集群监控
  • 指标,然后通过支持指标收集的集群监控系统。如ganglia进行监控
  • 辅助监控工具

1:WebUI
      Spark应用程序提交后,driver和Executor之间不断的交换执行信息。能够通过driver的4040port(默认port)获取实用的Spark应用程序的执行信息,如:
  • Stage和Task
  • RDD大小和内存使用情况
  • 环境变量信息
  • executor的执行信息
  • ...
      假设多个Spark应用程序在同一个client上以client方式提交,那么driver的WebUIport将绑定从4040開始的连续port,如4040、4041、4042...。
      须要注意的是,用过WebUI仅仅能查看Spark应用程序在执行期间的信息,一旦Spark应用程序执行完,这些信息将无法查看。由于WebUIport随Spark应用程序的完毕而关闭。假设想要事后查看Spark应用程序的执行信息。那么须要配置history Server来持久化Spark应用程序执行信息。关于history Server參见Spark1.0.0 history server配置(正在撰写,迟点给上链接) 。

2:指标
      Spark採用了基于Coda Hale Metrics Library 的可配置的指标体系,通过各种指标收集器,如JMX、CSV、GraphiteSink、Ganglia等能够进行汇总报告。该指标体系的配置文件位于conf/metrics.properties(通过复制conf/metrics.properties.template生成或自建),假设要採用自己定义的配置文件,还须要在属性配置上配置一下spark.metrics.conf。
      Spark的指标体系针对Spark不同的组件分解成对应的实例。每一个实例涵盖一套指标。

Spark如今支持的实例有:

  • master
  • worker
  • applications
  • driver
  • executor
      Spark的指标体系支持多种收集器,每一个实例能够採用多个收集器,也能够不採用。Spark支持的收集器定义在org.apache.spark.metrics.sink,如今支持的收集器有:
  • ConsoleSink
  • CSVSink.
  • JmxSink
  • MetricsServlet
  • GraphiteSink
  • GangliaSink 由于版权问题。部署包默认不含有该收集器;假设须要,要又一次编译嵌入LGPL授权代码的源代码。详细使用參见用ganglia监控Spark1.0.0(正在撰写。迟点给上链接)。

3:辅助监控工具
      能够通过一些辅助监控工具对Spark应用程序执行前后和执行过程中系统性能变化来监控Spark应用程序。

这些辅助工具有:

  • 集群监控系统,如ganglia、negios、zabbix等,这些工具能够监控整个集群的磁盘、网络、内存利用率和性能瓶颈;
  • 操作系统性能分析工具,如dstat、iostat、iotop,这些工具能够对单台机器的性能进行仔细地分析;
  • JVM性能分析工具。如 jstack、jmap、jstat 、jconsole,这些工具能够对JVM进行具体的性能分析。

版权声明:本文博主原创文章,博客,未经同意不得转载。

Spark1.0.0 监测方法的更多相关文章

  1. Spark1.0.0新特性

            Spark1.0.0 release于2014-05-30日正式公布,标志Spark正式进入1.X的时代.Spark1.0.0带来了各种新的特性,并提供了更好的API支持:Spark1 ...

  2. Spark1.0.0 属性配置

    1:Spark1.0.0属性配置方式       Spark属性提供了大部分应用程序的控制项,而且能够单独为每一个应用程序进行配置.       在Spark1.0.0提供了3种方式的属性配置: Sp ...

  3. Apache Spark1.1.0部署与开发环境搭建

    Spark是Apache公司推出的一种基于Hadoop Distributed File System(HDFS)的并行计算架构.与MapReduce不同,Spark并不局限于编写map和reduce ...

  4. Spark-1.6.0之Application运行信息记录器JobProgressListener

    JobProgressListener类是Spark的ListenerBus中一个很重要的监听器,可以用于记录Spark任务的Job和Stage等信息,比如在Spark UI页面上Job和Stage运 ...

  5. Spark-1.6.0中的Sort Based Shuffle源码解读

    从Spark-1.2.0开始,Spark的Shuffle由Hash Based Shuffle升级成了Sort Based Shuffle.即Spark.shuffle.manager从Hash换成了 ...

  6. Spark1.0.0属性配置

    1:Spark1.0.0属性配置方式 Spark属性提供了大部分应用程序的控制项,并且可以单独为每个应用程序进行配置. 在Spark1.0.0提供了3种方式的属性配置: SparkConf方式 Spa ...

  7. Yarn上运行spark-1.6.0

    目录 目录 1 1. 约定 1 2. 安装Scala 1 2.1. 下载 2 2.2. 安装 2 2.3. 设置环境变量 2 3. 安装Spark 2 3.1. 下载 2 3.2. 安装 2 3.3. ...

  8. spark1.0.0 mllib机器学习库使用初探

    本文机器学习库使用的部分代码来源于spark1.0.0官方文档. mllib是spark对机器学习算法和应用的实现库,包括分类.回归.聚类.协同过滤.降维等,本文的主要内容为如何使用scala语言创建 ...

  9. Ubuntu 12.04下spark1.0.0 集群搭建(原创)

    spark1.0.0新版本的于2014-05-30正式发布啦,新的spark版本带来了很多新的特性,提供了更好的API支持,spark1.0.0增加了Spark SQL组件,增强了标准库(ML.str ...

随机推荐

  1. time返回当前的 Unix 时间戳而$_SERVER["REQUEST_TIME"]得到请求开始时的时间戳

    time():返回当前的 Unix 时间戳 $_SERVER["REQUEST_TIME"]:得到请求开始时的时间戳,可以用来判断完成整个php处理的时间

  2. PHPUnit测试

    今天单元测试测到一个有点坑的小问题: public function testUpdataStatusFailForNegative() { // // Remove the following li ...

  3. IS---InstallShield第二天

    在Setup.rul中,新增OnBegin函数 STRING str1,spath,szApplicationPath,szApplicationCmdLine,szCmdLine;function ...

  4. oracle系列索引

    今天终于把oracle入门的知识通篇过了一遍. 一篇文章没有写,先做个索引.把知识系统的梳理下. 数据库基本概念-oracle介绍 oracle安装,配置,启动 oracle工具 sqlplus 用户 ...

  5. Java控制台版推箱子

    import java.util.Scanner; public class b { public static void main(String[] args) { Scanner input = ...

  6. 使用spring的jdbcTemplate-----用JDBC模板查询数据库

    JdbcTemplate类声明了几个重载的query()模板方法来控制整个查询过程,就像进行更新数据操作一样,通过实现PreparedStatementCreator和PreparedStatemen ...

  7. 关于执行ST_Geometry的st_centroid函数时报ORA-28579错误的问题

    环境 SDE版本:10./10.2/10.2.1/10.2.2 Oracle版本:11g R2 11.2.0.1 Windows版本:Windows Server 2008 R2 问题描述及原因 以全 ...

  8. bower的权限问题

    装bootstrap的时候,先用sudo指令装了bower,但是一打 bower isntall bootstrap 就报错: Error: EACCES, permission denied '/U ...

  9. Qt中设置widget背景颜色/图片的注意事项(使用样式表 setStyleSheet())

    在Qt中设置widget背景颜色或者图片方法很多种:重写paintEvent() , 调色板QPalette , 样式表setStyleSheet等等. 但是各种方法都有其注意事项,如果不注意则很容易 ...

  10. 14.6.3.3 Making the Buffer Pool Scan Resistant

    14.6.3.3 Making the Buffer Pool Scan Resistant 相比使用一个严格的LRU算法,InnoDB 使用一个技术来最小化数据总量 带入到buffer pool 而 ...