Scala Collection Method
接收一元函数
map转换元素,主要应用于不可变集合(1 to 10).map(i => i * i)
(1 to 10).flatMap(i => (1 to i).map(j => i * j))
transform与map相同,不过用于可变集合,直接转换ArrayBuffer("Peter", "Paul", "Mary").transform(_.toUpperCase)
collect接收偏函数(PartialFunction)作为参数;模式匹配也是一种偏函数"-3+4".collect {
case '+' => 1 ;
case '-' => -1
} // Vector(-1, 1)
groupBy按指定函数分组,返回Mapval words = Array("Abc", "ab")
val map = words.groupBy(_.substring(0, 1).toUpperCase)
// Map(A -> Array(Abc, ab))
接收二元函数
reduceLeft从左向右规约f(f(f(a, b), c), d)
List(1, 7, 2, 9).reduceLeft(_ - _)
// ((1 - 7) - 2) - 9 = 1 - 7 - 2 - 9 = -17
reduceRight从右向左规约f(a, f(b, f(c, d)))List(1, 7, 2, 9).reduceRight(_ - _)
// 1 - (7 - (2 - 9)) = 1 - 7 + 2 - 9 = -13
foldLeft提供初始值+二元函数,从左向右折叠,每次计算结果在左侧- 可用
/:(表示树形左侧)操作符表示,(init /: collection)(function)
- 可用
foldRight提供初始值+二元函数,从右向左折叠,每次计算结果在右侧- 可用
:\(表示树形右侧)操作符表示,(collection :\ init)(function)
List(1, 7, 2, 9).foldLeft(0)(_ - _)
(0 /: List(1, 7, 2, 9))(_ - _)
// 0 - 1 - 7 - 2 - 9 = -19
- 可用
scanLeft和scanRight结合了 folding 和 mapping,结果为所有的中间过程值(1 to 10).scanLeft(0)(_ + _) // Vector(0, 1, 3, 6, 10, 15, 21, 28, 36, 45, 55)
zip拉链,即将两个集合各个元素像拉链一样交叉结合在一起List(1,2,3) zip List("a","b","c") // List((1,a), (2,b), (3,c))
- 长度不一致的集合则以较小的长度为准
zipAll为长度较短的集合设置默认值,this.zipAll(that, thisDefault, thatDefault)
zipWithIndex返回元素及对应的下标"Scala".zipWithIndex
// Vector((S,0), (c,1), (a,2), (l,3), (a,4))
view为集合创建延迟视图val lazyView = (1 to 1000000).view
lazyView.take(100).last //100
- 对视图的操作都不会立即计算(包括第一个元素也不会)
- 与
Stream不同,不会缓存任何值 apply方法会强制计算整个视图,使用lazyView.take(i).last代替lazyView(i)
par并行化集合,后续应用的方法都会并发计算for (i <- (0 until 100).par) print(s" $i")
// 1-99
很好的解决并发编程问题
将集合变为对于的并行化实现
对于产生的结果,与串行方式的结果一致 (如
for...yield...)可使用
seq,toArray等方法将集合还原部分方法不能并发操作
- 使用
reduce替代reduceLeft,先对各部分集合操作,然后聚合结果,但操作必须满足结合律 - 使用
aggregate替代foldLeft,先对各部分集合操作,然后用另一个操作将结果聚合
str.par.aggregate(Set[Char]())(_ + _, _ ++ _)
// 等价于
str.foldLeft(Set[Char]())(_ + _)
```- 使用
Scala Collection Method的更多相关文章
- spark1.5 scala.collection.mutable.WrappedArray$ofRef cannot be cast to ...解决办法
下面是我在spark user list的求助贴,很快就得到了正确回答,有遇到问题的同学解决不了也可以去上面提问. I can use it under spark1.4.1,but error on ...
- Scala Collection简介
Traversable vs Iterable Traversable, Iterable 都是trait. Iterable 继承 Traversable. Traversable: 支持forea ...
- idea中使用scala运行spark出现Exception in thread "main" java.lang.NoClassDefFoundError: scala/collection/GenTraversableOnce$class
idea中使用scala运行spark出现: Exception in thread "main" java.lang.NoClassDefFoundError: scala/co ...
- spark提示Caused by: java.lang.ClassCastException: scala.collection.mutable.WrappedArray$ofRef cannot be cast to [Lscala.collection.immutable.Map;
spark提示Caused by: java.lang.ClassCastException: scala.collection.mutable.WrappedArray$ofRef cannot b ...
- Apache Spark Exception in thread “main” java.lang.NoClassDefFoundError: scala/collection/GenTraversableOnce$class
问题: 今天用Maven搭建了一个Spark的Scala项目,运行后遇到下面异常: Apache Spark Exception in thread “main” java.lang.NoClassD ...
- scala之method和function的区别
在我没有学习scala的时候,主要用java和python做日常工作开发,印象中,没有特别的刻意的去区分method和function的区别,这个关系,正如我们日常生活中,没有刻意的去区分质量和重量. ...
- mongodb collection method
https://docs.mongodb.com/manual/reference/method/db.collection.bulkWrite/ db.coll_test.getIndexes()# ...
- scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet
最近重新搭了spark环境.在Master上使用了IDEA来写代码.确实很方便.我用的是hadoop2.6.spark1.5.1forhadoop2.6. scala之前用的是2.11.0老是报这个错 ...
- Exception in thread "main" java.lang.NoSuchMethodError: scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet;
注意spark的Scala版本和java版本 修改后为官方指定的版本正常运行 Error:scalac: Error: object FloatRef does not have a member c ...
随机推荐
- 金蝶BOS元模型分析
对一些需求变化多样的产品而言,做好可变性设计是非常重要的.国外做得好的有Siebel,国内有金蝶的BOS,实际上金蝶的BOS很多理念跟Siebel是相似的,呵呵...他们都是采用MDD的方式来解决可变 ...
- 命令行运行ionic run android 出现running one or more of the platforms Error
问题如图所示: 或者 这个问题也是由于端口号被占用的原因,解决的方法在上篇博客<Ionic run android失败解决方法>.
- MElv2.kkkK
MElv2.kkkK 一.预估与实际 PSP2.1 Personal Software Process Stages 预估耗时(分钟) 实际耗时(分钟) Planning 计划 • Estimate ...
- MS Sql 优化步骤及优化not in一例
今天接到客户投诉说系统卡死了,经过一翻努力,终于解决了.现将解决步骤记录一下,以便下次参考: 因为客户系统集中在阿里云上面,使用的是ms sql2008数据库,上面有N个客户,一下子无法知道是哪个客户 ...
- k8s集群搭建(一)
k8s简介 kubernetes,简称K8s,是用8代替8个字符“ubernete”而成的缩写.是一个开源的,用于管理云平台中多个主机上的容器化的应用,Kubernetes的目标是让部署容器化的应用简 ...
- springBoot配置druid监控报错Failed to bind properties under 'spring.datasource.druid' to javax.sql.DataSource
报错信息: Description: Failed to bind properties under 'spring.datasource.druid' to javax.sql.DataSource ...
- Go Programming Language
[Go Programming Language] 1.go run %filename 可以直接编译并运行一个文件,期间不会产生临时文件.例如 main.go. go run main.go 2.P ...
- pymysql 增删改 查 索引
pymysql 模块的使用 pip install pymysql username = input ("请输入用户") pwd = input ("请输入密码" ...
- 常见bug类别
- NiFi使用总结 一 hive到hive的PutHiveStreaming processor和SelectHiveQL
我说实话,NiFi的坑真的挺多的... 1.PutHiveStreaming processor的使用 具体配置可参考:https://community.hortonworks.com/articl ...