从.net parallel角度解读spark
对于我这样一个一直工作在.net平台上的developer来讲,Hadoop,Spark,HBase等这些大数据名词比较陌生,对于分布式计算,.net上也有类似的Parallel(我说的不是HDInsight), 这篇文章是我尝试从.net上的Parallel类库的角度去讲述什么是spark。
我们先从C#的一个烂大街的例子(不是Helloworld),统计一篇文章单词出现的频率。
下面C#代码是利用.net Parallel来写的统计单词出现频率。
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks; namespace WordCountDemo
{
using System.IO;
using System.Threading;
class Program
{
/// <summary>
/// 我们以计算一篇文章中单词的个数为例子
/// (计算文章单词个数的demo简直就是各种大数据计算的HelloWorld)。
///
/// WordCountFlow是数单词程序
/// WordCountDetail对WordCountFlow函数每一行进行拆解并做了详细解释。
/// </summary>
/// <param name="args"></param>
static void Main(string[] args)
{
string filePath = @"D:\BigDataSoftware\spark-2.1.0-bin-hadoop2.7\README.md"; WordCountFlow(filePath);
Console.WriteLine("----------------------");
WordCountDetail(filePath);
} /// <summary>
/// 数单词的程序流程
/// </summary>
/// <param name="filePath"></param>
static void WordCountFlow(string filePath)
{
File.ReadAllLines(filePath).AsParallel()
.SelectMany(t => t.Split(' '))
.Select(t => new { word = t, tag = })
.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Select(p => p.tag).Aggregate((a, b) => a + b) })
// 如果对Aggregate函数不熟悉,上面代码等同于下行
//.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Sum(p => p.tag) });
.ForAll(t => Console.WriteLine($"ParationId:{Thread.CurrentThread.ManagedThreadId} ({t.word}-{t.count})"));
} /// <summary>
/// 数单词程序流程的详细解释
/// </summary>
/// <param name="filePath"></param>
static void WordCountDetail(string filePath)
{
// 读取整篇文章,文章每一行将作为一个string存储到数组lines
string[] lines = File.ReadAllLines(filePath);
// AsParallel()是Parallel类库的核心方法,具体的意思是将string[] lines这个数组分割成几个分区(Partition)。
// 假设这篇文章有500行,那么这个方法会会把string[500]-lines分解成 (string[120] partitionA),
// (string[180] partitionB), (string[150] partitionC),(...) 等几个Partition
// .net runtime将当前程序的负载(主要是cpu使用情况)情况为依据的分区算法来确定到底要分成几个Partition,
// 我们可以大概认为cpu有几个逻辑核(不准确),就会被分解成几个Partition。
// 后续的计算中.net runtime将会针对每一个partition申请一个单独的线程来处理.
// 比如:partitionA由001号线程处理,partitionB由002号线程处理。。。
ParallelQuery<string> parallelLines = lines.AsParallel();
// linesA,linesB,linesC...数组中存储的每一行根据空格分割成单词,结果仍然是存放在ParallelQuery<string>这种分块的结构中
// 下面带有****的注释,如果对函数式编程没有了解,可以直接忽略。
// ****如果对函数式编程有所了解,会知道lambda天生lazy的,如果下面这行代码打个断点,当debug到这行代码的时候,
// ****鼠标移动到parallelWords上时,我们不会看到每一个单词,
// ****runtime并没有真正将每一行分解成单词,这行代码仅仅是一种计算逻辑。
ParallelQuery<string> parallelWords = parallelLines.SelectMany(t => t.Split(' '));
// 将每一个单子加上标记1,这行代码返回的类型为ParallelQuery<var>,var为runtime自动判断,此处var的类型的实际应该为
// class 匿名类型
// {
// public word {get;set;}
// public tag {get;set}
//}
var wordparis = parallelWords.Select(t => new { word = t, tag = });
// 根据单词进行分组,同一个分组中的单词个数求和,类似于如下sql select word,count(tag) from wordparis group by word
// 注意,此处同样的单词可能分布在不同的分区中,比如英语中常见的"the",可能partitionA中有3个"the",partitionB中有2个“the",
// 但是partitionA和partitionB分别被不同的线程处理,如果runtime足够聪明的话,他应该先计算partitionA的the的个数(the,3),
// 然后计算partitionB的the的个数(the,2),最后将整个partition合并并且重新分割(shuffle),在做后续的计算
// shuffle后partition的分区和之前partition里面的数据会不同。
// 此处wordcountParis的类型为
// class 匿名类型
// {
// public word {get;set;}
// public count {get;set}
//}
var wordcountParis = wordparis.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Select(p => p.tag).Aggregate((a, b) => a + b) });
// 打印结果。由于线程执行的乱序,可以看到输出的partitionId也是乱序。
wordcountParis.ForAll(t => Console.WriteLine($"ParationId:{Thread.CurrentThread.ManagedThreadId} ({t.word}-{t.count})"));
}
}
}
程序运行结果

通过上面的c#的例子,我们看到parallel如何将一篇文章分解成多个Partition来并且在不同Partition上进行并行计算的,在计算过程中,可能需要"shuffle",需要对原来的Partition进行重新洗牌。
我们假设,如果这个程序运行在集群上,这些Partition分布在不同的机器上,这样就可以利用多台机器的力量而非一台机器多个线程的力量去做计算了,yeah!,你猜对了,这就是spark,下面的scala的wordCountFlow函数是在spark上统计单词出现频率的函数,与c#的WordCountFlow一样,也是五行代码,并且这五行代码的逻辑也完全相同。只不过spark将数据分布在不同的机器上,并且让机器进行计算,当然,如你所想,某些情况下需要shuffle,不同机器上的数据将会被汇聚并重新分割成新的分区。虽然Spark中的partition和net parallel中的partition并不完全对应(spark中的一台机器上可能有多个paratition) ,shuffle也是spark的专用词汇,但基本的原理是类似的。
package wordCountExample
import org.apache.spark.{SparkConf, SparkContext, TaskContext}
/**
* Created by StevenChennet on 2017/3/10.
*/
object WordCount {
def main(args: Array[String]): Unit = {
// 文件路径
val filePath="D:\\BigDataSoftware\\spark-2.1.0-bin-hadoop2.7\\README.md"
wordCountFlow(filePath)
}
def wordCountFlow(filePath:String ):Unit={
// sparkContext对象使用一个SparkConf对象来构造
// SparkConf主要进行一些设置,比如说local【*】表示尽量开启更多线程并行处理
// SparkContext是spark执行任务的核心对象
// 下面五行代码与C#的WordCountFlow五行代码一一对应
new SparkContext(new SparkConf().setAppName("WordCount").setMaster("local[*]")).textFile(filePath)
.flatMap(_.split(" "))
.map((_,1))
.reduceByKey(_+_)
.foreach(t=>println( s"Partition: ${ TaskContext.getPartitionId() } (${t._1}}-${t._2}})"))
}
}
据友情提醒,上面的Scala代码的lambda太难看了,我转换一下方式
new SparkContext(new SparkConf().setAppName("WordCount").setMaster("local[*]")).textFile(filePath)
.flatMap(line=>line.split(" "))
.map(word=>(word,1))
.reduceByKey((a,b)=>a+b)
.foreach(t=>println( s"Partition: ${ TaskContext.getPartitionId() } (${t._1}}-${t._2}})"))
}
程序运行结果

在net parallel中,如果某个线程在计算过程中崩溃了,那可能导致整个程序都crash掉,如果是集群运算,因为一台宕机而让整个集群崩溃可不是一个好决策,spark可以在计算之前先对要计算的内容持久化,如果一台机器crash,可以将这台机器的计算任务拉到另外一台机器上进行重新计算。
从.net parallel角度解读spark的更多相关文章
- 不一样的角度 解读微信小程序
不一样的角度 解读微信小程序 七月在夏天· 2 天前 前段时间看完了雨果奖中短篇获奖小说<北京折叠>.很有意思的是,张小龙最近也要把应用折叠到微信里,这些应用被他称为:小程序. 含着金钥匙 ...
- RxJava系列6(从微观角度解读RxJava源码)
RxJava系列1(简介) RxJava系列2(基本概念及使用介绍) RxJava系列3(转换操作符) RxJava系列4(过滤操作符) RxJava系列5(组合操作符) RxJava系列6(从微观角 ...
- 解读Spark Streaming RDD的全生命周期
本节主要内容: 一.DStream与RDD关系的彻底的研究 二.StreamingRDD的生成彻底研究 Spark Streaming RDD思考三个关键的问题: RDD本身是基本对象,根据一定时间定 ...
- 从物理执行的角度透视spark Job
本博文主要内容: 1.再次思考pipeline 2.窄依赖物理执行内幕 3.宽依赖物理执行内幕 4.Job提交流程 一:再次思考pipeline 即使采用pipeline的方式,函数f对依赖的RDD中 ...
- 【Social listening实操】从社交媒体传播和文本挖掘角度解读《欢乐颂2》
本文转自知乎 作者:苏格兰折耳喵 ----------------------------------------------------- 作为数据分析爱好者,本文作者将想从数据的角度去解读< ...
- Spark 概念学习系列之从物理执行的角度透视spark Job(十七)
本博文主要内容: 1.再次思考pipeline 2.窄依赖物理执行内幕 3.宽依赖物理执行内幕 4.Job提交流程 一:再次思考pipeline 即使采用pipeline的方式,函数f对依赖的RDD ...
- 业余草教你解读Spark源码阅读之HistoryServer
HistoryServer服务可以让用户通过Spark UI界面,查看历史应用(已经执行完的应用)的执行细节,比如job信息.stage信息.task信息等,该功能是基于spark eventlogs ...
- HBase rebalance 负载均衡源码角度解读使用姿势
关键词:hbase rebalance 负载均衡 参考源码版本:apache-hbase-1.1.2 什么是HBase Rebalance ? 随着数据写入越来越多以及不均衡,即使一开始每个Regio ...
- 详细解读Spark的数据分析引擎:Spark SQL
一.spark SQL:类似于Hive,是一种数据分析引擎 什么是spark SQL? spark SQL只能处理结构化数据 底层依赖RDD,把sql语句转换成一个个RDD,运行在不同的worker上 ...
随机推荐
- 用Spark完成复杂TopN计算的两种逻辑
如果有商品品类的数据pairRDD(categoryId,clickCount_orderCount_payCount),用Spark完成Top5,你会怎么做? 这里假设使用Java语言进行编写,那么 ...
- NetSec2019 20165327 EXP5 MSF基础应用
NetSec2019 20165327 EXP5 MSF基础应用 实践目标 本实践目标是掌握metasploit的基本应用方式,重点常用的三种攻击方式的思路.具体需要完成: 1.1一个主动攻击实践,如 ...
- springboot 返回json字符串格式化问题
在idea中yml文件中添加以下注解就可以格式化json字符串效果 spring: jackson: serialization: indent-output: true 原返回json格式为: {& ...
- python -- 返回函数、匿名函数、装饰器
返回函数 高阶函数的参数可以是函数,那么其返回值也可以是函数. 闭包 对于高阶函数,内部函数可以引用外部函数的参数和局部变量.当调用外部函数返回内部函数时,相关参数和变量都保存在返回的函数(即内部函数 ...
- dedecms织梦文章微信分享带缩略图与简介
dedecms V5.7二次开发 php5.6 mysql5.1 问题:dedecms文章分享到微信,带缩略图与简介.如下图: 1.准备工作 PHP 5.3+ 并且 curl扩展已经开启 微信服务号一 ...
- C# 一些不注意知识点:命名空间,等级,class等等
C# 命名空间表示域,控制着域内的对象. 命名空间是第一等级,class,delegate,enum,interface,struct是第二等级: 方法,属性,字段,索引,事件,常量,构造函数,终结器 ...
- 【记录】【3】设置bing为chrome的默认搜索引擎
方法:设置→搜索→管理搜索引擎→其他搜索引擎→设置bing搜索的网址为 http://cn.bing.com/search?q=%s 注:search?q=%s 是必须的,否则无法将其设置为默认 ...
- Centos 7 squid 用户认证
一.安装安装过程十分简便,只需要安装一下squid,一条命令搞定yum install squidrpm -qa | grep squidsquid-3.5.20-2.el7_3.2.x86_64 二 ...
- ckeditor文本对齐方式添加,图片上传
最近用的AdminBSBMaterialDesign-master模板,里边用到了ckeditor编辑器 但发现里边没有基本的文本对齐方式,找了好一会,好多方法都不管用,最后在config.js中添加 ...
- nginx非root安装
nginx非root安装 唯一需要解决的就是指定安装目录 这里使用nginx相关包如下 nginx-1.14.0.tar.gz 安装需要依赖如下2个包 pcre-8.42.tar.gz zlib-1. ...