1. package com.test.spark
  2. import org.apache.spark.sql.{Dataset, Row, SaveMode, SparkSession}
  3. /**
  4. * @author Administrator
  5. * 2019/7/22-17:09
  6. *
  7. */
  8. object TestReadData {
  9. val spark = SparkSession
  10. .builder()
  11. .appName("TestCreateDataset")
  12. .config("spark.some.config.option", "some-value")
  13. .master("local")
  14. .enableHiveSupport()
  15. .getOrCreate()
  16. def main(args: Array[String]): Unit = {
  17. testRead
  18. }
  19. def testRead(): Unit = {
  20. // parquet 如果有损坏啥的容易莫名的错误
  21. val parquet: Dataset[Row] = spark.read.parquet("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\PersonInfoCommon.parquet")
  22. parquet.show()
  23. // Spark SQL 的通用输入模式
  24. val commonRead: Dataset[Row] = spark.read.format("json").load("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\testJson")
  25. commonRead.show()
  26. // Spark SQL 的通用输出模式
  27. commonRead.write.format("parquet").mode(SaveMode.Append).save("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\PersonInfoCommon.parquet")
  28. // Spark SQL 的专业输入模式
  29. val professionalRead: Dataset[Row] = spark.read.json("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\testJson")
  30. professionalRead.show()
  31. // Spark SQL 的专业输出模式
  32. professionalRead.write.mode(SaveMode.Append).parquet("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\PersonInfoProfessional.parquet")
  33. val readParquet: Dataset[Row] = spark.sql("select * from parquet.`D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\PersonInfoCommon.parquet`")
  34. readParquet.show()
  35. }
  36. }
  37. //输出:
  38. +---+---------------+---------+
  39. |age| ip| name|
  40. +---+---------------+---------+
  41. | 24| 192.168.0.8| lillcol|
  42. |100| 192.168.255.1| adson|
  43. | 39| 192.143.255.1| wuli|
  44. | 20| 192.168.255.1| gu|
  45. | 15| 243.168.255.9| ason|
  46. | 1| 108.168.255.1| tianba|
  47. | 25|222.168.255.110|clearlove|
  48. | 30|222.168.255.110|clearlove|
  49. +---+---------------+---------+
  50. +---+---------------+---------+
  51. |age| ip| name|
  52. +---+---------------+---------+
  53. | 24| 192.168.0.8| lillcol|
  54. |100| 192.168.255.1| adson|
  55. | 39| 192.143.255.1| wuli|
  56. | 20| 192.168.255.1| gu|
  57. | 15| 243.168.255.9| ason|
  58. | 1| 108.168.255.1| tianba|
  59. | 25|222.168.255.110|clearlove|
  60. | 30|222.168.255.110|clearlove|
  61. +---+---------------+---------+
  62. +---+---------------+---------+
  63. |age| ip| name|
  64. +---+---------------+---------+
  65. | 24| 192.168.0.8| lillcol|
  66. |100| 192.168.255.1| adson|
  67. | 39| 192.143.255.1| wuli|
  68. | 20| 192.168.255.1| gu|
  69. | 15| 243.168.255.9| ason|
  70. | 1| 108.168.255.1| tianba|
  71. | 25|222.168.255.110|clearlove|
  72. | 30|222.168.255.110|clearlove|
  73. +---+---------------+---------+
  74. +---+---------------+---------+
  75. |age| ip| name|
  76. +---+---------------+---------+
  77. | 24| 192.168.0.8| lillcol|
  78. |100| 192.168.255.1| adson|
  79. | 39| 192.143.255.1| wuli|
  80. | 20| 192.168.255.1| gu|
  81. | 15| 243.168.255.9| ason|
  82. | 1| 108.168.255.1| tianba|
  83. | 25|222.168.255.110|clearlove|
  84. | 30|222.168.255.110|clearlove|
  85. | 24| 192.168.0.8| lillcol|
  86. |100| 192.168.255.1| adson|
  87. | 39| 192.143.255.1| wuli|
  88. | 20| 192.168.255.1| gu|
  89. | 15| 243.168.255.9| ason|
  90. | 1| 108.168.255.1| tianba|
  91. | 25|222.168.255.110|clearlove|
  92. | 30|222.168.255.110|clearlove|
  93. +---+---------------+---------+

保存

文件保存选项

模式 注释
Append DataFrame的内容将被追加到现有数据中。
Overwrite 现有数据将被数据Daframe的内容覆盖。
ErrorIfExists 如果数据已经存在,报错。
Ignore 如果数据已经存在,不执行任何操作

注:这些保存模式不使用任何锁定,不是原子操作。
如果使用 Overwrite 同时该路径(path)又是数据源路径,要先对数据进行持久化操作,
否则会在读取path之前将该数据删除掉,导致后续lazy 读取数据的时候报文件不存在的错误。


类型之间的转换

之前关于Spark 三中抽象之间的转换老是有些纠结
现在对它们之间的转换做个总结

在 SparkSQL 中 Spark 为我们提供了两个新的抽象,分别是 DataFrame 和 DataSet。
他们和 RDD 有什啥关系呢?
首先从版本的产生上来看:RDD(Spark1.0) —> DataFrame(Spark1.3) —> DataSet(Spark1.6)

如果同样的数据都给到这三个数据结构,他们分别计算之后,都会给出相同的结果。
不同是的他们的执行效率和执行方式。
在后期的 Spark 版本中,DataSet 会逐步取代 RDD 和 DataFrame 成为唯一的 API 接口。
所以后续开发 我更多的面向DataSet进行开发了。

RDD
  1. RDD 弹性分布式数据集,Spark 计算的基石,为用户屏蔽了底层对数据的复杂抽象和处理,为用户提供了一组方便的数据转换与求值方法。
  2. RDD 是一个懒执行的不可变的可以支持 Lambda 表达式的并行数据集合。
  3. RDD 的最大好处就是简单,API 的人性化程度很高。
  4. RDD 的劣势是性能限制,它是一个 JVM 驻内存对象,这也就决定了存在 GC 的限制和数据增加时 Java 序列化成本的升高。
DataFrame
  1. 与 RDD 类似,DataFrame 也是一个分布式数据容器。
  2. 然而 DataFrame 更像传统数据库的二维表格,除了数据以外,还记录数据的结构信息,即 schema。
  3. 与 Hive 类似,DataFrame 也支持嵌套数据类型(struct、array 和 map)。
  4. 从 API 易用性的角度上看,DataFrame API 提供的是一套高层的关系操作,比函数式的 RDD API 要更加友好,门槛更低。
  5. 由于与 R 和 Pandas 的 DataFrame 类似,Spark DataFrame 很好地继承了传统单机数据分析的开发体验。

Q: DataFrame性能上比 RDD 要高的原因:

A:主要有两个原因

  1. 定制化内存管理
    数据以二进制的方式存在于非堆内存,节省了大量空间之外,还摆脱了 GC 的限制。
  2. 优化的执行计划
    查询计划通过 Spark catalyst optimiser 进行优化。
DataSet
  1. 是 DataFrame API 的一个扩展,是 Spark 最新的数据抽象。
  2. 用户友好的 API 风格,既具有类型安全检查也具有 DataFrame 的查询优化特性。
  3. DataSet 支持编解码器,当需要访问非堆上的数据时可以避免反序列化整个对象,提高了效率。
  4. 样例类被用来在 DataSet 中定义数据的结构信息,样例类中每个属性的名称直接映射到 DataSet 中的字段名称。
  5. DataFrame 是 DataSet 的特列,type DataFrame = Dataset[Row] ,所以可以通过 as 方法将 DataFrame 转换为 DataSet。Row 是一个类型,跟 Car、Person 这些的类型一样,所有的表结构信息都用 Row 来表示。
  6. DataSet 是强类型的。比如可以有 Dataset[Car],Dataset[Person],
    DataFrame 只是知道字段,但是不知道字段的类型,所以在执行这些操作的时候是没办法在编译的时候检查是否类型失败的,比如你可以对一个 String 进行减法操作,在执行的时候才报错,
    而 DataSet 不仅仅知道字段,而且知道字段类型,所以有更严格的错误检查。
    就跟 JSON 对象和类对象之间的类比。

三者之间的转换

  1. case class Person(name: String, age: Long) extends Serializable //case class的定义要在引用case class函数的外面。
  2. import spark.implicits._
  3. //类型之间的转换:注意输出类型
  4. def rddSetFrame() = {
  5. // 在使用一些特殊的操作时,一定要加上 import spark.implicits._ 不然 toDF、toDS 无法使用。
  6. val rdd: RDD[String] = spark.sparkContext.textFile("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\testFile")
  7. val ds: Dataset[Row] = spark.read.json("D:\\DATA-LG\\PUBLIC\\TYGQ\\INF\\testJson")
  8. val df: DataFrame = rdd.map(_.split(",")).map(strArr => (strArr(0).trim(), strArr(1).trim().toInt)).toDF("nama", "age")
  9. // rdd->df
  10. //一般用元组把一行的数据写在一起,然后在 toDF 中指定字段名。
  11. val rddTDf: DataFrame = rdd.map(_.split(",")).map(strArr => (strArr(0).trim(), strArr(1).trim().toInt)).toDF("nama", "age")
  12. // df -> rdd
  13. val dfTRdd: RDD[Row] = df.rdd;
  14. // rdd -> ds
  15. //定义每一行的类型 case class 时,已经给出了字段名和类型,后面只要往 case class 里面添加值即可。
  16. val rddTDs: Dataset[Person] = rdd.map(_.split(",")).map(strArr => Person(strArr(0).trim(), strArr(1).trim().toInt)).toDS()
  17. // ds -> rdd
  18. val dsTRdd: RDD[Person] = rddTDs.rdd
  19. // df->ds
  20. //这种方法就是在给出每一列的类型后,使用 as 方法,转成 DataSet,这在数据类型是 DataFrame 又需要针对各个字段处理时极为方便。
  21. val dfTDs: Dataset[Person] = df.as[Person]
  22. // ds->df
  23. // 只是把 case class 封装成 Row。
  24. val dsTDf: DataFrame = ds.toDF
  25. }

Spark 读写数据、抽象转换 拾遗的更多相关文章

  1. Spark SQL数据加载和保存实战

    一:前置知识详解: Spark SQL重要是操作DataFrame,DataFrame本身提供了save和load的操作, Load:可以创建DataFrame, Save:把DataFrame中的数 ...

  2. Spark大数据针对性问题。

    1.海量日志数据,提取出某日访问百度次数最多的那个IP. 解决方案:首先是将这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中.注意到IP是32位的,最多有个2^32个IP.同样可以采 ...

  3. 使用Spark读写CSV格式文件(转)

    原文链接:使用Spark读写CSV格式文件 CSV格式的文件也称为逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号.在本文中的CSV格 ...

  4. Spark SQL数据载入和保存实战

    一:前置知识具体解释: Spark SQL重要是操作DataFrame,DataFrame本身提供了save和load的操作. Load:能够创建DataFrame. Save:把DataFrame中 ...

  5. Spark 读写hive 表

    spark 读写hive表主要是通过sparkssSession 读表的时候,很简单,直接像写sql一样sparkSession.sql("select * from xx") 就 ...

  6. Spark读写HBase

    Spark读写HBase示例 1.HBase shell查看表结构 hbase(main)::> desc 'SDAS_Person' Table SDAS_Person is ENABLED ...

  7. 学习Hadoop+Spark大数据巨量分析与机器学习整合开发-windows利用虚拟机实现模拟多节点集群构建

    记录学习<Hadoop+Spark大数据巨量分析与机器学习整合开发>这本书. 第五章 Hadoop Multi Node Cluster windows利用虚拟机实现模拟多节点集群构建 5 ...

  8. opencv IplImage各参数详细介绍以及如何从一个JPEG图像数据指针转换得到IplImage

    这篇文章里介绍得最清楚了.http://blog.chinaunix.net/uid-22682903-id-1771421.html 关于颜色空间  RGB颜色空间已经非常熟悉了.HSV颜色空间需要 ...

  9. Python 学习 第17篇:从SQL Server数据库读写数据

    在Python语言中,从SQL Server数据库读写数据,通常情况下,都是使用sqlalchemy 包和 pymssql 包的组合,这是因为大多数数据处理程序都需要用到DataFrame对象,它内置 ...

随机推荐

  1. 3.Struts2中Action类的三种写法

    一.普通的POJO类(没有继承没有实现)-基本不使用 public class DemoAction1 { public String execute(){ System.out.println(&q ...

  2. html 通过input video canvas 打开摄像头 定制相机

    在机缘巧合之下,了解到用HTML5和javascript调用摄像头来实现拍照功能,今天就把大致原理写下来.页面布局很简单,就是一个input标签,两个HTML5元素video.canvas和一个but ...

  3. Java之Java的文件结构(才不是叛教!)

    Java从入门到恰饭之文件结构,使用IDEA开发. 新建包 包名一般选择公司域名(https://tieba.baidu.com/)的反转 创建完成是这样的 对应的三层文件夹 我们创建一个类 pack ...

  4. windows10 自动配置切换IP

    办公室与家里的ip网段不一样.每次都要来回修改本地无线WLAN IP段.写了个脚本bat,自动配置WLAN IP,方便切换. 建立 auto-set-ip.bat,保存格式需为ANSI,否则中文会乱码 ...

  5. centos做免密登录

    CentOS 6.9 SSH配置用户免密码登录 1. 演示环境: 192.168.1.144:CentOS 6.9 x86_64 192.168.1.146:CentOS 7.4 x86_64 2.  ...

  6. delphi 键盘常用参数(PC端和手机端 安卓/IOS)

    常数名称(红色手机端) 十六进制值 十进制值 对应按键(手机端) Delphi编程表示(字符串型)_tzlin注 0 0 大键盘Delete键 #0 VK_LBUTTON 1 1 鼠标的左键 #1 V ...

  7. poi之Excel上传

    poi之Excel上传 @RequestMapping(value = "/import", method = RequestMethod.POST) public String ...

  8. Unity NGUI 粒子的排序

    Unity NGUI系统中是没有对粒子进行排序的,如: 怎么解决这个问题呢? 思路是把粒子的渲染层级,相对于UI组件的层级进行一个偏移. 解决后的效果如下: 代码如下: using System.Co ...

  9. Ehcache3.x学习(一)入门

    简介 Ehcache 是一个开源的高性能缓存,拥有很高的拓展性和伸缩性,广泛使用各种 Java 项目中(如 Hibernate 默认使用 Ehcache作为二级缓存),在目前基于 Java 的缓存方案 ...

  10. Shiro术语

    请花2分钟阅读和理解Shiro中的术语 - 这是非常重要的.这里的术语和概念在文档中的任何地方都被引用,并且将大大简化您对Shiro和一般的安全性的理解. 因为使用了一些您可能不太明白的术语,所以安全 ...