原文链接:使用Spark读写CSV格式文件

CSV格式的文件也称为逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号。在本文中的CSV格式的数据就不是简单的逗号分割的),其文件以纯文本形式存表格数据(数字和文本)。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。

  本篇文章将介绍如何使用Spark 1.3+的外部数据源接口来自定义CSV输入格式的文件解析器。这个外部数据源接口是由databricks公司开发并开源的(地址:https://github.com/databricks/spark-csv),通过这个类库我们可以在Spark SQL中解析并查询CSV中的数据。因为用到了Spark的外部数据源接口,所以我们需要在Spark 1.3+上面使用。在使用之前,我们需要引入以下的依赖:

1 <dependency>
2     <groupId>com.databricks</groupId>
3     <artifactId>spark-csv_2.10</artifactId>
4     <version>1.0.3</version>
5 </dependency>

目前spark-csv_2.10的最新版就是1.0.3。如果我们想在Spark shell里面使用,我们可以在--jars选项里面加入这个依赖,如下:

1 [iteblog@spark $] bin/spark-shell --packages com.databricks:spark-csv_2.10:1.0.3
 

  和《Spark SQL整合PostgreSQL》文章中用到的load函数类似,在使用CSV类库的时候,我们需要在options中传入以下几个选项:

  1、path:看名字就知道,这个就是我们需要解析的CSV文件的路径,路径支持通配符;
  2、header:默认值是false。我们知道,CSV文件第一行一般是解释各个列的含义的名称,如果我们不需要加载这一行,我们可以将这个选项设置为true;
  3、delimiter:默认情况下,CSV是使用英文逗号分隔的,如果不是这个分隔,我们就可以设置这个选项。
  4、quote:默认情况下的引号是'"',我们可以通过设置这个选项来支持别的引号。
  5、mode:解析的模式。默认值是PERMISSIVE,支持的选项有
    (1)、PERMISSIVE:尝试解析所有的行,nulls are inserted for missing tokens and extra tokens are ignored.
    (2)、DROPMALFORMED:drops lines which have fewer or more tokens than expected
    (3)、FAILFAST: aborts with a RuntimeException if encounters any malformed line

如何使用

1、在Spark SQL中使用

  我们可以通过注册临时表,然后使用纯SQL方式去查询CSV文件:

1 CREATE TABLE cars
2 USING com.databricks.spark.csv
3 OPTIONS (path "cars.csv", header "true")

我们还可以在DDL中指定列的名字和类型,如下:

1 CREATE TABLEcars (yearMade double, carMake string, carModel string, comments string, blank string)
2 USING com.databricks.spark.csv
3 OPTIONS (path "cars.csv", header "true")

2、通过Scala方式

  推荐的方式是通过调用SQLContextload/save函数来加载CSV数据:

1 import org.apache.spark.sql.SQLContext
2  
3 val sqlContext = new SQLContext(sc)
4 val df = sqlContext.load("com.databricks.spark.csv", Map("path" -> "cars.csv""header"-> "true"))
5 df.select("year""model").save("newcars.csv""com.databricks.spark.csv")

当然,我们还可以使用com.databricks.spark.csv._的隐式转换:

1 import org.apache.spark.sql.SQLContext
2 import com.databricks.spark.csv._
3  
4 val sqlContext = new SQLContext(sc)
5  
6 val cars = sqlContext.csvFile("cars.csv")
7 cars.select("year""model").saveAsCsvFile("newcars.tsv")

3、在Java中使用

和在Scala中使用类似,我们也推荐调用SQLContext类中 load/save函数

01 /**
02  * User: 过往记忆
03  * Date: 2015-06-01
04  * Time: 下午23:26
05  * bolg: http://www.iteblog.com
06  * 本文地址:http://www.iteblog.com/archives/1380
07  * 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货
08  * 过往记忆博客微信公共帐号:iteblog_hadoop
09  */
10  
11 import org.apache.spark.sql.SQLContext
12  
13 SQLContext sqlContext = new SQLContext(sc);
14  
15 HashMap<String, String> options = new HashMap<String, String>();
16 options.put("header""true");
17 options.put("path""cars.csv");
18  
19 DataFrame df = sqlContext.load("com.databricks.spark.csv", options);
20 df.select("year""model").save("newcars.csv""com.databricks.spark.csv");

在Java或者是Scala中,我们可以通过CsvParser里面的函数来读取CSV文件:

1 import com.databricks.spark.csv.CsvParser;
2 SQLContext sqlContext = new org.apache.spark.sql.SQLContext(sc);
3  
4 DataFrame cars = (new CsvParser()).withUseHeader(true).csvFile(sqlContext, "cars.csv");

4、在Python中使用

Python中,我们也可以使用SQLContext类中 load/save函数来读取和保存CSV文件:

1 from pyspark.sql import SQLContext
2 sqlContext = SQLContext(sc)
3  
4 df = sqlContext.load(source="com.databricks.spark.csv", header="true", path = "cars.csv")
5 df.select("year""model").save("newcars.csv""com.databricks.spark.csv")

使用Spark读写CSV格式文件(转)的更多相关文章

  1. 如何用python读写CSV 格式文件

    工作中经常会碰到读写CSV文件的情况.记录下,方便自己以后查询并与大家一起分享: 写CSV文件方法一: import csv          #导入CSV with open("D:\eg ...

  2. 使用csv模块读写csv格式文件

    import csv class HandleCsv: ''' csv文件处理类 ''' def __init__(self, filename): ''' 构造器 :param filename: ...

  3. JAVA用geotools读写shape格式文件

    转自:http://toplchx.iteye.com/blog/1335007 JAVA用geotools读写shape格式文件 (对应geotools版本:2.7.2) (后面添加对应geotoo ...

  4. 导出CSV格式文件,用Excel打开乱码的解决办法

    导出CSV格式文件,用Excel打开乱码的解决办法 1.治标不治本的办法 将导出CSV数据文件用记事本打开,然后另存为"ANSI"编码格式,再用Excel打开,乱码解决. 但是,这 ...

  5. Python数据写入csv格式文件

    (只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块. 废话不多说,直接写代码!该重要的内容都已经注释了, ...

  6. java导出csv格式文件

    导出csv格式文件的本质是导出以逗号为分隔的文本数据 import java.io.BufferedWriter; import java.io.File; import java.io.FileIn ...

  7. python3 库pandas写入csv格式文件出现中文乱码问题解决方法

    python3 库pandas写入csv格式文件出现中文乱码问题解决方法 解决方案: 问题是使用pandas的DataFrame的to_csv方法实现csv文件输出,但是遇到中文乱码问题,已验证的正确 ...

  8. mysql导入csv格式文件

    今天测试导入csv格式文件,虽然简单但是如果不注意还是会出现错误,而且mysql在某些方面做的确实对新手不是很友好,记录一下:创建一个csv格式文件:[mysql@xxx1 ycrdb]$ more ...

  9. MYSQL导入CSV格式文件数据执行提示错误(ERROR 1290): The MySQL server is running with the --secure-file-priv option so it cannot execute this statement.

    MYSQL导入CSV格式文件数据执行提示错误(ERROR 1290): The MySQL server is running with the --secure-file-priv option s ...

随机推荐

  1. spring-cloud-sleuth+zipkin追踪服务实现(二)

    1. 简述 在上一节<spring-cloud-sleuth+zipkin追踪服务实现(一)>中,我们使用microservice-zipkin-server.microservice-z ...

  2. [实战]MVC5+EF6+MySql企业网盘实战(6)——ajax方式登录

    写在前面 今天回来的比较早,就趁着有空,把登录的代码更新一下.上篇文章实现了ajax的注册,这篇将实现登录,实现目标,ajax登录方式,如果勾选记住我,则下次不再输入用户名密码,直接跳转到网盘界面. ...

  3. 【js】两个数相除有余数时结果加1

    var all=15; var item=2; var pages=all%item==0?(all/item):(Math.floor(all/item)+1); console.log(pages ...

  4. Python全栈开发之5、几种常见的排序算法以及collections模块提供的数据结构

    转载请注明出处http://www.cnblogs.com/Wxtrkbc/p/5492298.html 在面试中,经常会遇到一些考排序算法的题,在这里,我就简单了列举了几种最常见的排序算法供大家学习 ...

  5. nhibernate 比较运算符

    比较运算符 HQL运算符 QBC运算符 含义 = Restrictions.eq() 等于 <> Restrictions.not(Exprission.eq()) 不等于 > Re ...

  6. python 类继承

    #!/usr/bin/python # Filename: inherit.py class SchoolMember: '''Represents any school member.''' def ...

  7. GNU Wget 1.19.4 for Windows

    资源地址:https://eternallybored.org/misc/wget/ 然后将工具目录加入环境变量

  8. Spring学习——什么是AOP

    在网上查找什么是AOP,查到了下面这段话,我感觉写得清晰明了,一下子就明白了什么是面向切面编程AOP. ———————————————————————————————————————————————— ...

  9. 记录一下最近犯得sb的翻车错误

    首先是: 数据范围是long long范围,然后写了一个暴力,觉得过不去,于是开了int范围,最后写了个能骗过所有数据的骗分,然后没开longlong... 接着是: for(int i = l; i ...

  10. jsp有哪些内置对象作用分别是什么 分别有什么方法?

    JSP共有以下9个内置的对象: request 用户端请求,此请求会包含来自GET/POST请求的参数 response 网页传回用户端的回应 pageContext 网页的属性是在这里管理 sess ...