Spark笔记之DataFrameNaFunctions
DataFrameNaFunctions用来对DataFrame中值为null或NaN的列做处理,处理分为三种类型:
drop:根据条件丢弃含有null或NaN的行
fill:根据条件使用指定值填充值为null或NaN的列,相当于设置默认值
replace:根据条件替换列值
下面是针对每种处理方式的详细解释:
package cc11001100.spark.dataset.DataFrameNaFunctionsDemo; import com.google.common.collect.ImmutableMap;
import org.apache.spark.sql.DataFrameNaFunctions;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.RowFactory;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.catalyst.encoders.RowEncoder;
import org.apache.spark.sql.types.DataTypes;
import org.apache.spark.sql.types.StructField; import java.util.ArrayList;
import java.util.List; /**
* DataFrameNaFunctions对空值的处理主要有三种:
* drop
* fill
* replace
*
* @author CC11001100
*/
public class DataFrameNaFunctionsDemo { private static Integer randomValue(int n) {
if (Math.random() < 0.5) {
return n;
} else {
return null;
}
} public static void main(String[] args) {
SparkSession spark = SparkSession.builder().master("local[*]").getOrCreate(); List<Row> rowList = new ArrayList<>();
for (int i = 0; i < 100; i++) {
Row row = RowFactory.create(randomValue(i), randomValue(i));
rowList.add(row);
}
Dataset<Row> nums = spark.createDataset(rowList, RowEncoder.apply(DataTypes.createStructType(new StructField[]{
DataTypes.createStructField("col_1", DataTypes.IntegerType, true),
DataTypes.createStructField("col_2", DataTypes.IntegerType, true),
})));
nums.show(false);
DataFrameNaFunctions dataFrameNaFunctions = nums.na(); /*----------------------------- drop -------------------------------*/ // 只要某行中有一列是null或NaN即丢掉此行数据,内部调用了drop("any")
dataFrameNaFunctions.drop().show();
// 指定丢弃行的方式,any表示行中任意一列是null或NaN即丢弃此行,all表示此行中所有列都是null或NaN才丢弃此行
dataFrameNaFunctions.drop("any").show();
// 当某行中的所有列为null或NaN时丢弃掉此行
dataFrameNaFunctions.drop("all").show();
// 当某行的指定列为null或any时丢弃掉此行
dataFrameNaFunctions.drop(new String[]{"col_1", "col_2"}).show();
// 当某行的指定列任意一个为null或NaN时丢弃掉此行
dataFrameNaFunctions.drop("any", new String[]{"col_1", "col_2"}).show();
// 当某行的指定列全部为null或NaN时丢弃掉此行
dataFrameNaFunctions.drop("all", new String[]{"col_1", "col_2"}).show();
// 当某行中指定列为null或NaN的数量大于指定值时丢弃掉此行
dataFrameNaFunctions.drop(1).show();
dataFrameNaFunctions.drop(1, new String[]{"col_1", "col_2"}).show(); /*----------------------------- fill -------------------------------*/ // 使用指定的值填充所有为null或NaN的列s,相当于为所有null或NaN设置默认值
dataFrameNaFunctions.fill(1L).show();
dataFrameNaFunctions.fill(0.1).show();
dataFrameNaFunctions.fill("").show();
dataFrameNaFunctions.fill(true).show(); // 当给定的列出现null或NaN值时使用对应值填充,相当于为指定的列设置默认值
dataFrameNaFunctions.fill(1L, new String[]{"col_1, col_2"}).show();
dataFrameNaFunctions.fill(0.1, new String[]{"col_1, col_2"}).show();
dataFrameNaFunctions.fill("", new String[]{"col_1, col_2"}).show();
dataFrameNaFunctions.fill(true, new String[]{"col_1, col_2"}).show(); // 传入Map可以为每一列设置不同的值,map的key为列名,值为当key列为null或NaN时要填充的值
// 要填充的值必须是下列类型之一: `Integer`, `Long`, `Float`, `Double`, `String`, `Boolean`.
dataFrameNaFunctions.fill(ImmutableMap.of("col_1", "unknown", "col_2", 1.0)).show(); /*----------------------------- replace -------------------------------*/ // 当指定列的值为key时,将其替换为value
dataFrameNaFunctions.replace("col_1", ImmutableMap.of("UNKNOWN", "unnamed")).show();
dataFrameNaFunctions.replace(new String[]{"col_1", "col_2"}, ImmutableMap.of("UNKNOWN", "unnamed")).show(); } }
相关资料:
1. Class DataFrameNaFunctions - spark doc
.
Spark笔记之DataFrameNaFunctions的更多相关文章
- spark笔记 环境配置
spark笔记 spark简介 saprk 有六个核心组件: SparkCore.SparkSQL.SparkStreaming.StructedStreaming.MLlib,Graphx Spar ...
- 大数据学习——spark笔记
变量的定义 val a: Int = 1 var b = 2 方法和函数 区别:函数可以作为参数传递给方法 方法: def test(arg: Int): Int=>Int ={ 方法体 } v ...
- spark 笔记 16: BlockManager
先看一下原理性的文章:http://jerryshao.me/architecture/2013/10/08/spark-storage-module-analysis/ ,http://jerrys ...
- spark 笔记 15: ShuffleManager,shuffle map两端的stage/task的桥梁
无论是Hadoop还是spark,shuffle操作都是决定其性能的重要因素.在不能减少shuffle的情况下,使用一个好的shuffle管理器也是优化性能的重要手段. ShuffleManager的 ...
- spark 笔记 14: spark中的delay scheduling实现
延迟调度算法的实现是在TaskSetManager类中的,它通过将task存放在四个不同级别的hash表里,当有可用的资源时,resourceOffer函数的参数之一(maxLocality)就是这些 ...
- spark 笔记 12: Executor,task最后的归宿
spark的Executor是执行task的容器.和java的executor概念类似. ===================start executor runs task============ ...
- spark 笔记 11: SchedulingAlgorithm 两种调度算法的优先级比较
调度算法的最基本工作之一,就是比较两个可执行的task的优先级.spark提供的FIFO和FAIR的优先级比较在SchedulingAlgorithm这个接口体现.) { ) { ) { ) { fa ...
- spark 笔记 10: TaskScheduler相关
任务调度器的接口类.应用程序可以定制自己的调度器来执行.当前spark只实现了一个任务调度器) )))))val createTime = System.currentTimeMillis()clas ...
- spark 笔记 8: Stage
Stage 是一组独立的任务,他们在一个job中执行相同的功能(function),功能的划分是以shuffle为边界的.DAG调度器以拓扑顺序执行同一个Stage中的task. /** * A st ...
随机推荐
- Scrum Meeting day 2
第二次会议,开发人员会议 . • 前端: 1. 登陆界面,login, sign up, 添加加载时的图片. 2. 主界面:采用类微信类型.应含有联系人.群聊.设置 3. ...
- ES6实用新特性
兼容性 http://kangax.github.io/compat-table/es5/ http://kangax.github.io/compat-table/es6/ ES6(ES2015)兼 ...
- (Alpha)Let's-Chronos分数分配规则
Requirement: 每个团队开一个讨论会,协商讨论团队贡献分的分配方式.每个团队的团队贡献分为50分/人.每个人分数不能相同,请详细说明分数的分配规则. 为了完成此次的团队贡献分的分配任务,我们 ...
- ElasticSearch 2 (37) - 信息聚合系列之内存与延时
ElasticSearch 2 (37) - 信息聚合系列之内存与延时 摘要 控制内存使用与延时 版本 elasticsearch版本: elasticsearch-2.x 内容 Fielddata ...
- JS基础(一)异常错误
EvalError(运算错误): raised when an error occurs executing code in eval() RangeError(范围错误): raised when ...
- PHP后台支付的开发:微信支付和支付宝支付
关于支付的流程之类的就不做解释,大家可以自行搜索! 微信支付 项目前提:本人用的是tp框架,PHP语言下载到微信平台提供的微信支付接口文件,放在了tp第三方类库vendor,命名为WxpayAPI, ...
- Spring+Junit测试用例的使用
1.[导包]使用Spring测试套件,需要两个jar包:junit-X.X.jar和spring-test-X.X.X.RELEASE.jar,在maven项目下可添加如下依赖: <depend ...
- ESXi主机性能问题
服务器遇到一个问题 百度了下 基本发现是 四路的 windows 服务器的问题. 造成一些 性能降低. 然后查看了下几个虚拟机 的确是设置的4个虚拟插槽 根据百度的结果 要么改配置文件 要么改 这个四 ...
- centos 6.9安装mysql
1.确认mysql是否已安装,有下面的代码可知 [root@cdh1 zjl]# yum list installed mysql* Loaded plugins: fastestmirror, re ...
- OneZero第五周第二次站立会议(2016.4.19)
1. 时间: 15:15--15:25 共计10分钟. 2. 成员: X 夏一鸣 * 组长 (博客:http://www.cnblogs.com/xiaym896/), G 郭又铭 (博客:http ...