键值对操作 上(Spark自学五)
键值对RDD是Spark中许多操作所需要的常见数据类型。
“分区”是用来让我们控制键值对RDD在各节点上分布情况的高级特性。使用可控的分区方式把常在一起被访问的数据放在同一个节点上,可以大大减少应用的通信开销,带来明显的性能提升。
4.1 动机
Spark为pair RDD提供了并行操作各个键或跨节点重新进行数据分组的操作接口。
4.2 创建Pair RDD
当需要把一个普通的RDD转为pair RDD时,可以调用map()函数来实现。下例为如何将由文本行组成的RDD转换为以每行的第一个单词为键的pair RDD。
例4-1: 在Python中使用第一个单词作为键创建出一个pair RDD
pairs = lines.map(lambda x: (x.split(" ")[0], x))
例4-2: 在Scala中使用第一个单词作为键创建出一个pair RDD
val pairs = lines.map(x => (x.split(" ")(0), x))
4.3 Pair RDD的转化操作
Pair RDD可以使用所有标准RDD上的可用的转化操作。
Pair RDD的转化操作(以键值对集合{(1,2),(3,4),(3,6)})为例:
rdd.reduceByKey((x, y)=>x+y) 结果:{(1,2), (3,10)}
rdd.groupByKey() 结果:{(1,[2]),(3,[4,6])}
rdd.mapValues(x => x+1) 结果:{(1,3),(3,5),(3,7)}
rdd.keys() 结果:{1,3,3}
rdd.values() 结果:{2,4,6}
rdd.sortByKey() 结果:{(1,2),(3,4),(3,6)}
筛选掉长度超过20个字符的行,如下:
例4-4: 用Python对第二个元素进行筛选
result = pairs.filter(lambda keyValue: len(keyValue[1]<20))
例4-5: 用Scala对第二个元素进行筛选、
pairs.filter{case (key, value) => value.length < 20}
4.3.1 聚合操作
使用reduceByKey()和mapValues()来计算每个键的对应值的均值。
例4-7:在Python中使用reduceByKey()和mapValues()计算每个键对应的平均值
rdd.mapValues(lambda x:(x, 1)).reduceByKey(lambda x, y: (x[0]+y[0], x[1]+y[1]))
例4-8:在Python中使用reduceByKey()和mapValues()计算每个键对应的平均值
rdd.mapValues(x => (x, 1)).reduceByKey((x, y) => (x._1 + y._1, x._2 + y._2))
解决分布式单词计数问题如下
例4-9: 用Python实现单词计数
rdd = sc.textFile("s3://...")
words = rdd.flatMap(lambda x: x.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda x, y:x+y)
例4-10: 用Scala实现单词计数
val input = sc.textFile("s3://...")
val words = input.flatMap(x => x.split(" "))
val result = words.map(x => (x, 1)).reduceByKey((x, y) => x+y)
我们可以使用countByValue()函数,以更快地实现单词计数:input.flatMap(x => x.split(" ")).countByValue().
Spark怎样确定如何分割工作:每个RDD都有固定数目的分区,分区数决定了在RDD上执行操作时的并行度。
例4-15: 在Python中自定义reduceByKey()的并行度
data = [("a", 3), ("b", 4), ("a", 1)]
sc.parallelize(data).reduceByKey(lambda x, y: x+y, 10)
4.3.2 数据分组
略
4.3.3 连接
连接数据操作:将有键的数据与另一组有键的数据一起使用。连接方式:右外连接、左外连接、交叉连接以及内连接。
例4-17:在Scala shell中进行内连接
storeAddress = {
(Store("Ritual"), "AAA"), (Store("Philz"), "BBB"),
(Store("Philz"), "CCC"), (Store("Starbucks"), "DDD")}
storeRating = {
(Store("Ritual"), 4.9), (Store("Philz"), 4.8)}
storeAddress.rightOuterJoin(storeRating) == {
(Store("Ritual"), "AAA", 4.9)),
(Store("Philz"), "BBB", 4.8)),
(Store("Philz"), "CCC", 4.8))}
例4-18:leftOuterJoin()与rightOuterJoin()
storeAddress = {
(Store("Ritual"), "AAA"), (Store("Philz"), "BBB"),
(Store("Philz"), "CCC"), (Store("Starbucks"), "DDD")}
storeRating = {
(Store("Ritual"), 4.9), (Store("Philz"), 4.8)}
storeAddress.rightOuterJoin(storeRating) == {
(Store("Ritual"), (Some("AAA"), 4.9)),
(Store("Philz"), (Some("BBB"), 4.8)),
(Store("Philz"), (Some("CCC"), 4.8))}
storeAddress.leftOuterJoin(storeRating) == {
(Store("Ritual"), ("AAA", Some(4.9))),
(Store("Starbucks"),("DDD",None)),
(Store("Philz"), ("BBB", Some(4.8))),
(Store("Philz"), ("CCC", Some(4.8)))}
4.3.4 数据排序
略
键值对操作 上(Spark自学五)的更多相关文章
- Spark学习之键值对操作总结
键值对 RDD 是 Spark 中许多操作所需要的常见数据类型.键值对 RDD 通常用来进行聚合计算.我们一般要先通过一些初始 ETL(抽取.转化.装载)操作来将数据转化为键值对形式.键值对 RDD ...
- Spark学习笔记——键值对操作
键值对 RDD是 Spark 中许多操作所需要的常见数据类型 键值对 RDD 通常用来进行聚合计算.我们一般要先通过一些初始 ETL(抽取.转化.装载)操作来将数据转化为键值对形式. Spark 为包 ...
- Redis源码解析:09redis数据库实现(键值对操作、键超时功能、键空间通知)
本章对Redis服务器的数据库实现进行介绍,说明Redis数据库相关操作的实现,包括数据库中键值对的添加.删除.查看.更新等操作的实现:客户端切换数据库的实现:键超时相关功能的实现.键空间事件通知等. ...
- go 发送post请求(键值对、上传文件、上传zip)
一.post请求的Content-Type为键值对 1.PostForm方式 package main import ( "net/http" "net/url" ...
- Spark中的键值对操作-scala
1.PairRDD介绍 Spark为包含键值对类型的RDD提供了一些专有的操作.这些RDD被称为PairRDD.PairRDD提供了并行操作各个键或跨节点重新进行数据分组的操作接口.例如,Pa ...
- Spark中的键值对操作
1.PairRDD介绍 Spark为包含键值对类型的RDD提供了一些专有的操作.这些RDD被称为PairRDD.PairRDD提供了并行操作各个键或跨节点重新进行数据分组的操作接口.例如,Pa ...
- Spark学习笔记3:键值对操作
键值对RDD通常用来进行聚合计算,Spark为包含键值对类型的RDD提供了一些专有的操作.这些RDD被称为pair RDD.pair RDD提供了并行操作各个键或跨节点重新进行数据分组的操作接口. S ...
- Spark基础:(三)Spark 键值对操作
1.pair RDD的简介 Spark为包含键值对类型的RDD提供了一些专有的操作,这些RDD就被称为pair RDD 那么如何创建pair RDD呢? 在不同的语言中有着不同的创建方式 在pytho ...
- spark入门(三)键值对操作
1 简述 Spark为包含键值对类型的RDD提供了一些专有的操作.这些RDD被称为PairRDD. 2 创建PairRDD 2.1 在sprk中,很多存储键值对的数据在读取时直接返回由其键值对数据组成 ...
随机推荐
- python读取doc
import os, time, fnmatch from docx import Document class search: def __init__(self, path, search_str ...
- DRF基类APIView提供的Request、Response和序列化器的综合使用
关于DRF基类APIView提供的Request和Response对象的作用,可以看我的另一篇博文:https://www.cnblogs.com/chichung/p/9939864.html 综合 ...
- Python 进阶 之 traceback模块
Traceback模块官方英文描述: Help on module traceback: NAME traceback - Extract, format and print information ...
- IE8的 JS 引擎如此不堪(二) - 解决方案
上一篇,IE8的JS引擎内存不停增长,是因为动态生成了一个image对象导致的.有了病因,就开始寻找治疗方法. 1.使用一个固定的img对象,但是无法获取地址改变后的图片大小,最总还是放弃: 2.寻找 ...
- NAT+穿洞基础知识梳理
参考:https://www.cnblogs.com/shilxfly/p/6589255.html https://blog.csdn.net/phoenix06/article/details/7 ...
- HSV与RGB的相互转换的公式
H参数表示色彩信息,即所处的光谱颜色的位置.该参数用一角度量来表示,红.绿.蓝分别相隔120度.互补色分别相差180度.纯度S为一比例值,范围从0到1,它表示成所选颜色的纯度和该颜色最大的纯度之间的比 ...
- ZCMU训练赛-H(模拟)
H - Hard to Play MightyHorse is playing a music game called osu!. After playing for several months ...
- web.input()和web.data() 遇到特殊字符
使用web.py的时候,web.input()和web.data() 都可以接收用户从浏览器端输入的参数. web.input()方法返回一个包含从url(GET方法)或http header(POS ...
- Python3 集合(无序的set)
ayout: post title: Python3 集合(无序的set) author: "luowentaoaa" catalog: true tags: mathjax: t ...
- Oracle SQL*Loader commit point tips
http://www.dba-oracle.com/t_sql_loader_commit_frequency.htm - Question: Can I control the commit fr ...