在sparkR在配置完成的基础上,本例采用Spark on yarn模式,介绍sparkR运行的一个例子。

在spark的安装目录下,/examples/src/main/r,有一个dataframe.R文件。该文件默认是在本地的模式下运行的,不与hdfs交互。可以将脚本进行相应修改,提交到yarn模式下。

在提交之前,要先将${SPARK_HOME}/examples/src/main/resources/people.json 文件上传到hdfs上,我上传到了hdfs://data-mining-cluster/data/bigdata_mining/sparkr/people.json 目录下。

  1. dataframe.R文件内容:
  1. # Convert local data frame to a SparkR DataFrame
  2. df <- createDataFrame(sqlContext, localDF)
  3. # Print its schema
  4. printSchema(df)
  5. # root
  6. #  |-- name: string (nullable = true)
  7. #  |-- age: double (nullable = true)
  8. # Create a DataFrame from a JSON file
  9. #path <- file.path("hdfs://data-mining-cluster/data/bigdata_mining/sparkr/people.json")
  10. path <- file.path("hdfs://data-mining-cluster/data/bigdata_mining/sparkr/people.json")
  11. peopleDF <- read.json(sqlContext, path)
  12. printSchema(peopleDF)
  13. # Register this DataFrame as a table.
  14. registerTempTable(peopleDF, "people")
  15. # SQL statements can be run by using the sql methods provided by sqlContext
  16. teenagers <- sql(sqlContext, "SELECT name FROM people WHERE age >= 13 AND age <= 19")
  17. # Call collect to get a local data.frame
  18. teenagersLocalDF <- collect(teenagers)
  19. # Print the teenagers in our dataset
  20. print(teenagersLocalDF)
  21. # Stop the SparkContext now
  22. sparkR.stop()

sparkR  --master yarn-client dataframe.R  这样就可以将任务提交到yarn上了。

另外,有些集群会报如下错误:

  1. 16/06/16 11:40:35 ERROR RBackendHandler: json on 15 failed
  2. Error in invokeJava(isStatic = FALSE, objId$id, methodName, ...) :
  3. java.lang.RuntimeException: Error in configuring object
  4. at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:109)
  5. at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:75)
  6. at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:133)
  7. at org.apache.spark.rdd.HadoopRDD.getInputFormat(HadoopRDD.scala:185)
  8. at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:198)
  9. at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239)
  10. at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237)
  11. at scala.Option.getOrElse(Option.scala:120)
  12. at org.apache.spark.rdd.RDD.partitions(RDD.scala:237)
  13. at org.apache.spark.rdd.MapPartitionsRDD.getPartitions(MapPartitionsRDD.scala:35)
  14. at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:239)
  15. at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:237)
  16. at scala.Option.getOrElse(Option.scala:120)
  17. at org.apache.spark.rdd.RDD.partitions(
  18. Calls: read.json -> callJMethod -> invokeJava

这种情况一般是由于启用了lzo压缩导致的。可以通过--jars  添加lzo的jar包,就可以了。例如:sparkR  --master yarn-client dataframe.R --jars /usr/local/Hadoop/share/hadoop/common/hadoop-lzo-0.4.20-SNAPSHOT.jar

sparkR的一个运行的例子的更多相关文章

  1. [Linux][Hadoop] 运行WordCount例子

    紧接上篇,完成Hadoop的安装并跑起来之后,是该运行相关例子的时候了,而最简单最直接的例子就是HelloWorld式的WordCount例子.   参照博客进行运行:http://xiejiangl ...

  2. Spring-Context之一:一个简单的例子

    很久之前就想系统的学习和掌握Spring框架,但是拖了很久都没有行动.现在趁着在外出差杂事不多,就花时间来由浅入深的研究下Spring框架.Spring框架这几年来已经发展成为一个巨无霸产品.从最初的 ...

  3. 一个UWSGI的例子

    摘要:uwsgi执行顺序:启动master进程,执行python脚本的公共代码(import同一层).然后生成worker进程,uwsgi.post_fork_hook=init_functions, ...

  4. 扩展Python模块系列(二)----一个简单的例子

    本节使用一个简单的例子引出Python C/C++ API的详细使用方法.针对的是CPython的解释器. 目标:创建一个Python内建模块test,提供一个功能函数distance, 计算空间中两 ...

  5. fitnesse - 一个简单的例子(slim)

    fitnesse - 一个简单的例子(slim) 2017-09-30 目录1 编写测试代码(Fixture code)2 编写wiki page并运行  2.1 新建wikiPage  2.2 运行 ...

  6. Struts2的配置和一个简单的例子

    Struts2的配置和一个简单的例子 笔记仓库:https://github.com/nnngu/LearningNotes 简介 这篇文章主要讲如何在 IntelliJ IDEA 中使用 Strut ...

  7. 跨站脚本功攻击,xss,一个简单的例子让你知道什么是xss攻击

    跨站脚本功攻击,xss,一个简单的例子让你知道什么是xss攻击 一.总结 一句话总结:比如用户留言功能,用户留言中写的是网页可执行代码,例如js代码,然后这段代码在可看到这段留言的不同一户的显示上就会 ...

  8. 从一个简单的例子谈谈package与import机制

    转,原文:http://annie09.iteye.com/blog/469997 http://blog.csdn.net/gdsy/article/details/398072 这两篇我也不知道到 ...

  9. OpenCV学习(2)——一个简单的例子

    光说不练假把式,来看一个简单的例子,了解了解OpenCV.这个小demo没有几行代码,作用是显示项目目录下面的一张图片. #include <opencv2\opencv.hpp> #in ...

随机推荐

  1. [LeetCode] Contains Duplicate & Contains Duplicate II

    Contains Duplicate Given an array of integers, find if the array contains any duplicates. Your funct ...

  2. react-创建组件

    //定义组件class InputControlES6 extends React.Component{ render (){ return (<View style="{sty.co ...

  3. 使用Karma、Mocha实现vue单元测试

    Karma Karma是一个基于Node.js的JavaScript测试执行过程管理工具(Test Runner).该工具在Vue中的主要作用是将项目运行在各种主流Web浏览器进行测试.换句话说,它是 ...

  4. git无法提交,存在未提交的修改,在重新合并前或者撤销更改

    其实我没有修改.但是却无法同步. 解决方法: 1.在vs里, 打开git的命令提示符 2.输入一下命令: git stashgit stash pop 3.然后再git checkout试试,然后提示 ...

  5. (原创)C++11改进我们的程序之简化我们的程序(五)

    这次要讲的是:c++11中的bind和function std::function 它是函数.函数对象.函数指针.和成员函数的包装器,可以容纳任何类型的函数对象,函数指针,引用函数,成员函数的指针.以 ...

  6. 如何打开chrome中flash debug player

    If you’ve installed the latest version of Google Chrome, and you are having a problem debugging your ...

  7. 【运维】Java开发人员掌握的Linux命令

    作为Java开发人员,要掌握常用的Linux命令. 为什么要写此文,笔者的Linux很厉害?NoNoNo,正因为笔者不熟悉Linux才写此文,以作整理. 最主要的命令 查询命令的简要用法,help 当 ...

  8. cxf 相关问题

    cxf不能将String的参数序列化的问题解决 问题: java.lang.NoSuchMethodError: org.codehaus.jettison.AbstractXMLStreamWrit ...

  9. spark读取hdfs数据本地性异常【转】

    在分布式计算中,为了提高计算速度,数据本地性是其中重要的一环. 不过有时候它同样也会带来一些问题. 一.问题描述 在分布式计算中,大多数情况下要做到移动计算而非移动数据,所以数据本地性尤其重要,因此我 ...

  10. Asp.Net正则过滤一个div

    Asp.Net过滤一对标签,例如div.ul.p.li.span等 html = “html page”; Regex regPage = new Regex(@"(?is)<div\ ...