1.spark提交流程

  sparkContext其实是与一个集群建立一个链接,当你停掉它之后
  就会和集群断开链接,则属于这个资源的Excutor就会释放掉了,Driver
  向Master申请资源,Master会向work分配资源,则会在wordCount里面会
  构建Rdd,则它会会构建DAG,DAG又叫有向无环图,则有向无环图一旦触发Action
  的时候,这个时候就会提交任务,此时,这些任务就不会经过Master,如果经过Master
  则Master的压力会很大,其实Excutor一旦启动了,它就会向Driver建立连接,Excutor
  它可能存在多个机器上面,则Driver不知道Excutor在哪里,但是Excutor知道Driver
  在哪里(通过Mastre来知道的),则此时Excutor会和Driver进行rpc通信,则此时Driver则会
  提交计算任务(以stage进行分开处理,其中stage里面是一个个并行的task),则
  提交的任务在Excutor里面执行,则在Excutor里面有这些任务的执行进度,则
  Excutor会向这个Master里面汇报进度,Driver就会知道它执行到了哪里,如果
  执行失败,则Driver可能会执行重试,可能会例如,如果有10个项目,其中9个项目  
  都执行完了,但是有一个项目会很慢很慢,则此时Driver会在启动一个项目,
  看这两个项目,谁快就用谁,对于catch,则Excutor只会catch属于它的的分区

  2.rdd缓存

    spark计算特别快的原因,就是在不同的操作中可以在内存中持久化或缓存
    多个数据集

  3.容量的大小

    关于容量大小,一般来说我们可以这样的假设,2个字段,100万条数据,50M,如果要说
    可以往后面一次计算

  4.关于内存分配

    在spark的计算过程中,如果我们的一台worker的内存是2g,但是我们可以给这个work

    启动spark,我可以只给他分1个g的内存,就是说这个worker里面,不管在执行任何操作,

    都只用这1个g的内存

  5.checkpoint(检查点)

    假如在进行rdd的计算的过程中,如果前面计算的结果之后,把这个结果保存在磁盘当中,

    但是磁盘烧了,则此时这个里面的数据就会消失,则此时我们就会从头开始记性计算,

    但是这样又有一些浪费,我们可以设置一个检查点(checkpoint),把某些计算出来的结果

    存在一个地方,当磁盘损坏,我们就可以回退到这些检查点当中,很想快照的意味

    (这个就一般作用于比较复杂的运用,当我们保存这个checkpoint的时候,他会主动的去寻找

    这个checkpoint里面保存的值)我们可以防止检查点的公共存放目录

    sc.setCheckpointDir("hdfs://192.168.109.136:9000/ck2016mypoint"),设置检查点存放的地方
    则我们此时hdfs dfs -ls /,我们就可以发现这个检查点存放的目录

    

    val rdd = sc.textFile("hdfs://192.168.109.136:9000/wj/input19")
    rdd.checkpoint
    rdd.count(运行action)

    则此时回启动两个方法,第一个方法进行计算,另一个方法则把结果写到checkpoint

    写到指定的目录(这个存放checkpoint的地方药可用性高,所以我们采用hdfs),

    则此时把rdd的内容写到checkpoint里面

  6.关于collect,cache,checkpoint的区别

    collect是一个Action类型的RDD,而cache则是,当我们xxx.cache,则这个xxx的rdd在进行

    Action的方法(collect),则会把这个RDD里面的内容缓存进内存,则当我们再一次进行计算的

    时候,则会从内存中进行读取,而checkpoint这个值,这个是把这个rdd的值缓存进入一个公共

    的目录(这个目录要有高的可用性,即使内存中丢失,这个也不会丢失)

spark提交任务的流程的更多相关文章

  1. spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes

    spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes ...

  2. Spark SQL底层执行流程详解

    本文目录 一.Apache Spark 二.Spark SQL发展历程 三.Spark SQL底层执行原理 四.Catalyst 的两大优化 一.Apache Spark Apache Spark是用 ...

  3. Spark源码分析之一:Job提交运行总流程概述

    Spark是一个基于内存的分布式计算框架,运行在其上的应用程序,按照Action被划分为一个个Job,而Job提交运行的总流程,大致分为两个阶段: 1.Stage划分与提交 (1)Job按照RDD之间 ...

  4. spark yarn cluster模式下任务提交和计算流程分析

    spark可以运行在standalone,yarn,mesos等多种模式下,当前我们用的最普遍的是yarn模式,在yarn模式下又分为client和cluster.本文接下来将分析yarn clust ...

  5. Spark源代码分析之中的一个:Job提交执行总流程概述

    Spark是一个基于内存的分布式计算框架.执行在其上的应用程序,依照Action被划分为一个个Job.而Job提交执行的总流程.大致分为两个阶段: 1.Stage划分与提交 (1)Job依照RDD之间 ...

  6. Spark的任务提交和执行流程概述

    1.概述 为了更好地理解调度,我们先看一下集群模式的Spark程序运行架构图,如上所示: 2.Spark中的基本概念 1.Application:表示你的程序 2.Driver:表示main函数,创建 ...

  7. spark 启动job的流程分析

    从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...

  8. Spark streaming的执行流程

    http://www.cnblogs.com/shenh062326/p/3946341.html  其实流程是从这里转载下来的,我只是在流程叙述中做了一下的标注. 当然为了自己能记住的更清楚,我没有 ...

  9. Spark提交任务(Standalone和Yarn)

    Spark Standalone模式提交任务 Cluster模式: ./spark-submit  \--master spark://node01:7077  \--deploy-mode clus ...

随机推荐

  1. RazorPad中的ModelProvider

    在RazorPad的右侧 我们可以提供模型的结构,Json数据结构体 当提供多个的时候 是Json中的数组 [{     Name: "NI" }, {     Name: &qu ...

  2. BZOJ2213: [Poi2011]Difference

    2213: [Poi2011]Difference Time Limit: 10 Sec  Memory Limit: 32 MBSubmit: 343  Solved: 108[Submit][St ...

  3. VS2012 中使用Emacs布局

    微软的反开源行为导致它不断的衰落,问题是还不反省. 下面这篇文章介绍了如何安装emacs布局的插件: http://marxistprogrammer.blog.163.com/blog/static ...

  4. day55

    担心了好久的编译原理也总是考完了 大学里的最后一次考试也是结束罗 这次的考试起伏跌宕啊 我们本来是9点钟开始考试 但是我们班的几个同学基本上7点钟就去了 为了什么?? 选个好的位置撒哈哈,到了九点,老 ...

  5. 基于PCA和SVM的人脸识别系统-error修改

    ------------------------------------------------- Undefined function or variable 'W'. Error in class ...

  6. 并发情况下synchronized死锁

    存在缺陷的代码: public class DataPropertyIdAndNameRepositoryImpl{ /** 发布标志 */ private volatile boolean publ ...

  7. Makefile学习(三)执行make

    9 执行make 一般方法:make. 某些情况:1.可能需要使用make更新一部分过时文件而不是全部 2.需要使用另外的编译器或者重新定义编译选项 3.只需要查看哪些文件被修改,不需要重新编译 所以 ...

  8. c/c++ 复习基础要点01-const指针、指针函数 函数指针、new/delete与malloc/free区别与联系

    1.      引用本身是有指针实现的:引用为只读指针 例子: int d=123; int& e=d;    //引用 int * const e=d; //只读指针,e指向d,不可修改e指 ...

  9. C++11 多线程 教学(2)

      C++11开始支持多线程编程,之前多线程编程都需要系统的支持,在不同的系统下创建线程需要不同的API如pthread_create(),Createthread(),beginthread()等, ...

  10. Qt 图形特效(Graphics Effect)介绍

    原文链接:Qt 图形特效(Graphics Effect)介绍 QGraphicsEffect也是Qt-4.6引入的一个新功能.它让给图形元素QGraphicsItem增加更佳视觉效果的编程变得非常简 ...