1.spark提交流程

  sparkContext其实是与一个集群建立一个链接,当你停掉它之后
  就会和集群断开链接,则属于这个资源的Excutor就会释放掉了,Driver
  向Master申请资源,Master会向work分配资源,则会在wordCount里面会
  构建Rdd,则它会会构建DAG,DAG又叫有向无环图,则有向无环图一旦触发Action
  的时候,这个时候就会提交任务,此时,这些任务就不会经过Master,如果经过Master
  则Master的压力会很大,其实Excutor一旦启动了,它就会向Driver建立连接,Excutor
  它可能存在多个机器上面,则Driver不知道Excutor在哪里,但是Excutor知道Driver
  在哪里(通过Mastre来知道的),则此时Excutor会和Driver进行rpc通信,则此时Driver则会
  提交计算任务(以stage进行分开处理,其中stage里面是一个个并行的task),则
  提交的任务在Excutor里面执行,则在Excutor里面有这些任务的执行进度,则
  Excutor会向这个Master里面汇报进度,Driver就会知道它执行到了哪里,如果
  执行失败,则Driver可能会执行重试,可能会例如,如果有10个项目,其中9个项目  
  都执行完了,但是有一个项目会很慢很慢,则此时Driver会在启动一个项目,
  看这两个项目,谁快就用谁,对于catch,则Excutor只会catch属于它的的分区

  2.rdd缓存

    spark计算特别快的原因,就是在不同的操作中可以在内存中持久化或缓存
    多个数据集

  3.容量的大小

    关于容量大小,一般来说我们可以这样的假设,2个字段,100万条数据,50M,如果要说
    可以往后面一次计算

  4.关于内存分配

    在spark的计算过程中,如果我们的一台worker的内存是2g,但是我们可以给这个work

    启动spark,我可以只给他分1个g的内存,就是说这个worker里面,不管在执行任何操作,

    都只用这1个g的内存

  5.checkpoint(检查点)

    假如在进行rdd的计算的过程中,如果前面计算的结果之后,把这个结果保存在磁盘当中,

    但是磁盘烧了,则此时这个里面的数据就会消失,则此时我们就会从头开始记性计算,

    但是这样又有一些浪费,我们可以设置一个检查点(checkpoint),把某些计算出来的结果

    存在一个地方,当磁盘损坏,我们就可以回退到这些检查点当中,很想快照的意味

    (这个就一般作用于比较复杂的运用,当我们保存这个checkpoint的时候,他会主动的去寻找

    这个checkpoint里面保存的值)我们可以防止检查点的公共存放目录

    sc.setCheckpointDir("hdfs://192.168.109.136:9000/ck2016mypoint"),设置检查点存放的地方
    则我们此时hdfs dfs -ls /,我们就可以发现这个检查点存放的目录

    

    val rdd = sc.textFile("hdfs://192.168.109.136:9000/wj/input19")
    rdd.checkpoint
    rdd.count(运行action)

    则此时回启动两个方法,第一个方法进行计算,另一个方法则把结果写到checkpoint

    写到指定的目录(这个存放checkpoint的地方药可用性高,所以我们采用hdfs),

    则此时把rdd的内容写到checkpoint里面

  6.关于collect,cache,checkpoint的区别

    collect是一个Action类型的RDD,而cache则是,当我们xxx.cache,则这个xxx的rdd在进行

    Action的方法(collect),则会把这个RDD里面的内容缓存进内存,则当我们再一次进行计算的

    时候,则会从内存中进行读取,而checkpoint这个值,这个是把这个rdd的值缓存进入一个公共

    的目录(这个目录要有高的可用性,即使内存中丢失,这个也不会丢失)

spark提交任务的流程的更多相关文章

  1. spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes

    spark提交任务报错: java.lang.SecurityException: Invalid signature file digest for Manifest main attributes ...

  2. Spark SQL底层执行流程详解

    本文目录 一.Apache Spark 二.Spark SQL发展历程 三.Spark SQL底层执行原理 四.Catalyst 的两大优化 一.Apache Spark Apache Spark是用 ...

  3. Spark源码分析之一:Job提交运行总流程概述

    Spark是一个基于内存的分布式计算框架,运行在其上的应用程序,按照Action被划分为一个个Job,而Job提交运行的总流程,大致分为两个阶段: 1.Stage划分与提交 (1)Job按照RDD之间 ...

  4. spark yarn cluster模式下任务提交和计算流程分析

    spark可以运行在standalone,yarn,mesos等多种模式下,当前我们用的最普遍的是yarn模式,在yarn模式下又分为client和cluster.本文接下来将分析yarn clust ...

  5. Spark源代码分析之中的一个:Job提交执行总流程概述

    Spark是一个基于内存的分布式计算框架.执行在其上的应用程序,依照Action被划分为一个个Job.而Job提交执行的总流程.大致分为两个阶段: 1.Stage划分与提交 (1)Job依照RDD之间 ...

  6. Spark的任务提交和执行流程概述

    1.概述 为了更好地理解调度,我们先看一下集群模式的Spark程序运行架构图,如上所示: 2.Spark中的基本概念 1.Application:表示你的程序 2.Driver:表示main函数,创建 ...

  7. spark 启动job的流程分析

    从WordCount開始分析 编写一个样例程序 编写一个从HDFS中读取并计算wordcount的样例程序: packageorg.apache.spark.examples importorg.ap ...

  8. Spark streaming的执行流程

    http://www.cnblogs.com/shenh062326/p/3946341.html  其实流程是从这里转载下来的,我只是在流程叙述中做了一下的标注. 当然为了自己能记住的更清楚,我没有 ...

  9. Spark提交任务(Standalone和Yarn)

    Spark Standalone模式提交任务 Cluster模式: ./spark-submit  \--master spark://node01:7077  \--deploy-mode clus ...

随机推荐

  1. z-index 所遇问题

    document.getElementById('wx_share_img').style.cssText = "width:100%;height:100%;position:fixed; ...

  2. 安卓handler.post问题

    protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentV ...

  3. git新手碰到的各种奇葩问题之一

    git  操作错误: <1>.情景描述:当在git commit --amend 更新上一次提交时,而此时提交日志会跳转到别人的日志中.,会出现错误:如下 弥补操作: 1.git fetc ...

  4. Touch事件

    http://www.cnblogs.com/shawn-xie/archive/2012/12/07/2805582.html 前言 一个触屏网站到底和传统的pc端网站有什么区别呢,交互方式的改变首 ...

  5. AD 10 直接出 BOM 的漂亮效果

    EDA 工具出BOM 需要什么格式,太多人费尽心思在代码级别做了很多工作,,,,,,,不提,,,,, 真正的BOM 需要东西呢?大家可以讨论讨论.-附件是G41 一个小板的 demo BOM,由AD1 ...

  6. python高级编程:有用的设计模式1

    # -*- coding: utf-8 -*-__author__ = 'Administrator'#python高级编程:有用的设计模式#设计械是可复用的,某种程序上它对软件设计中觉问题提供的语言 ...

  7. (转)A drop-in universal solution for moving text fields out of the way of the keyboard

    There are a hundred and one proposed solutions out there for how to move UITextField andUITextView o ...

  8. PHP设计模式笔记七:观察者模式 -- Rango韩老师 http://www.imooc.com/learn/236

    观察者模式 概述: 1.观察者模式(Observer),当一个对象状态发生改变时,依赖他的对象全部会收到通知,并自动更新 2.场景:一个事件发生后,要执行一连串更新操作,传统的编程方式,就是在事件的代 ...

  9. Android ActionBar详解(三):ActionBar实现切换Tabs标签

    实现切换Tabs标签; Activity代码: public class ActionBarTabs extends Activity { @Override protected void onCre ...

  10. 字符串匹配之horspool算法(简化的BM算法)

    前面介绍在BF,KMP这些算法的时候老是提到BM这个东西,究竟这什么东西,有啥高深的,这些问题我们如今不去考虑.不知道,认真读前几篇文章的读者有没有发现前面的算法都是从模式串的前面開始匹配的,那我们就 ...