<深入理解Spark 核心思想与源码分析> 耿嘉安著 本书共计486页,计划每天读书20页,计划25天完成. 2018-12-20   1-20页 凡事豫则立,不豫则废:言前定,则不跲:事前定,则不困. ——<礼记.中庸> 第一章: 1.运行环境,安装JDK. 2.运行环境,安装scala. wget http://downloads.typesafe.com/scala/2.10.4/scala-2.10.4.tgz 安装版本2.10.4 chmod 775 scala-2.10…
_ 阅读目录 一. 什么是Vue.nextTick()? 二. Vue.nextTick()方法的应用场景有哪些? 2.1 更改数据后,进行节点DOM操作. 2.2 在created生命周期中进行DOM操作. 三. Vue.nextTick的调用方式如下: 四:vm.$nextTick 与 setTimeout 的区别是什么? 五:理解 MutationObserver 六:nextTick源码分析 回到顶部 一. 什么是Vue.nextTick()? 官方文档解释为:在下次DOM更新循环结束之…
events模块对外提供了一个 EventEmitter 对象,即:events.EventEmitter. EventEmitter 是NodeJS的核心模块events中的类,用于对NodeJS中的事件进行统一管理,使用events可以对特定的API事件进行添加,触发和移除等.我们可以通过 require('events')来访问该模块. 比如如下代码: // 引入 events 模块 const events = require('events'); console.log(events)…
前言:入职新公司,SpringBoot和Mybatis都被封装了一次,光用而不知道原理实在受不了,于是开始恶补源码,由于刚开始比较浅,存属娱乐,大神勿喷. 就如网上的流传的SpringBoot与Mybatis整合两种方式 一.使用 pom文件使用:org.mybatis.spring.boot 依赖 坐标: <groupId>org.mybatis.spring.boot</groupId><artifactId>mybatis-spring-boot-starter&…
天行健,君子以自强不息:地势坤,君子以厚德载物.——<易经> 本章导读 Spark的初始化阶段.任务提交阶段.执行阶段,始终离不开存储体系. Spark为了避免Hadoop读写磁盘的I/O操作成为性能瓶颈,优先将配置信息.计算结果等数据存入内存,极大的提升了系统的执行效率. 4.1 存储体系的概述 4.1.1 块管理器BlockManager的实现 块管理器BlockManager是Spark存储体系中的核心组件,Driver Application和Executor都会创建BlockMana…
RDD是Spark对各类数据计算模型的统一抽象,被用于迭代计算过程以及任务输出结果的缓存读写. 在所有MapReduce框架中,shuffle是连接map任务和reduce任务的桥梁.shuffle性能优劣直接决定了 整个计算引擎的性能和吞吐量. 6.1 迭代计算 MappedRDD的iterator方法 6.2 什么是shuffle shuffle是所有MapReduce计算框架所必须经过的阶段,shuffle用于打通map任务的输出与reduce任务的输入, map任务的中间输出结果按照ke…
若夫乘天地之正,而御六气之辩解,以游无穷者,彼且恶乎待哉? ——<庄子.逍遥游> 翻译:至于遵循宇宙万物的规律,把握“六气”的变化,遨游于无穷无尽的境域,他还仰赖什么呢! 2.1 初始Spark 第一点是关于MRv1与MRv2的区别对比. 2.2 Spark基础知识 主要解释Spark的各个版本,介绍Spark的主要概念,介绍scala与java之间的语言差异. 2.3 Spark基本设计思想 2.4 Spark基本架构 Cluster Manager:Spark集群资源管理器,主要负责资源的…
http://www.codeceo.com/go-http-server-code.html…
即欲捭之贵周,即欲阖之贵密.周密之贵,微而与道相随.---<鬼谷子> 解释:译文:如果要分析问题,关键在于周详,如果要综合归纳问题,关键在于严密.周详严密的关键在于精深而与道相随. 解词:捭阖(bǎihé):开合.意为运用某些计策和手段,使双方联合或分化.含此义的成语有“纵横捭阖”. 解析:<鬼谷子>是一部充满着谋略和智慧的名著.“即欲捭之贵周,即欲阖之贵密”十分鲜明地体现了此书的特点.文中首先提出了“捭”和“阖”,这是两种不同的克敌制胜的计策.然后,再提出运用这两种计策必须具有的…
3.1 SparkContext概述 SparkConf负责配置参数,主要通过ConcurrentHaspMap来维护各种Spark的配置属性. class SparkConf(loadDefaults: Boolean) extends Cloneable with Logging with Serializable { import SparkConf._ /** Create a SparkConf that loads defaults from system properties an…