sparkR介绍及安装
SparkR是AMPLab发布的一个R开发包,为Apache Spark提供了轻量的前端。SparkR提供了Spark中弹性分布式数据集(RDD)的API,用户可以在集群上通过R shell交互性的运行job。例如,我们可以在HDFS上读取或写入文件,也可以使用 lapply 来定义对应每一个RDD元素的运算。
|
1
2
3
|
sc <- sparkR.init("local")wordsPerLine <- lapply(lines, function(line) { length(unlist(strsplit(line, " "))) }) |
除了常见的RDD函数式算子reduce、reduceByKey、groupByKey和collect之外,SparkR也支持利用 lapplyWithPartition 对每个RDD的分区进行操作。 SparkR也支持常见的闭包(closure)功能:用户定义的函数中所引用到的变量会自动被发送到集群中其他的机器上。参见一下例子中用户闭包中引用的 initialWeights 会被自动发送到集群其他机器上。
|
1
2
3
4
5
6
7
|
initialWeights <- runif(n=D, min = -1, max = 1)createMatrix <- function(line) { as.numeric(unlist(strsplit(line, " "))) %*% t(initialWeights)}# initialWeights is automatically serializedmatrixRDD <- lapply(lines, createMatrix) |
用户还可以很容易的在已经安装了R开发包的集群上使用SparkR。includePackage 命令用于指示在每个集群上执行操作前读取开发包。以下是个例子:
|
1
2
3
4
5
6
|
generateSparse <- function(x) { # Use sparseMatrix function from the Matrix package sparseMatrix(i=c(1, 2, 3), j=c(1, 2, 3), x=c(1, 2, 3))}includePackage(sc, Matrix)sparseMat <- lapplyPartition(rdd, generateSparse) |
下面介绍如何安装SparkR
第一步,安装R
参考http://www.myexception.cn/Linux-unix/680876.html
由于安装R依赖比较多,故利用iso文件创建本地yum源,见后【一】利用iso镜像文件创建本地yum源
1.1 安装依赖
|
1
2
3
4
5
6
7
8
9
10
11
12
|
yum install gccyum install gcc-c++yum install gcc-gfortranyum install pcre-develyum install tcl-develyum install zlib-develyum install bzip2-develyum install libX11-develyum install readline-devel #否则报”–with-readline=yes (default) and headers/libs are not available”错误yum install libXt-devel #否则报”configure: error: –with-x=yes (default) and X11 headers/libs are not available”错误yum install tk-develyum install tetex-latex |
1.2 下载源码,编译安装R
下载http://mirror.bjtu.edu.cn/cran/src/base/R-3/R-3.1.1.tar.gz
|
1
2
3
4
|
cd /softwares/Rtar -zxvf R-3.1.1.tar.gz./configure --enable-R-shlib (如果使用rJava需要加上 --enable-R-shlib)make && make install |
第二步,安装rjava
参考 http://www.geedoo.info/page/3
在联网的情况下,可以进入R命令,安装rJava包:
|
1
|
install.packages(“rJava”) |
如果待安装机器不能上网,可以将源文件下载到本地,然后通过shell命令R CMD INSTALL ‘package_name’来安装:
|
1
|
R CMD INSTALL “rJava_0.9-5.tar.gz” |
下载 rJava_0.9-6.tar.gz http://cran.r-project.org/web/packages/rJava/
|
1
2
|
cd /app/softwares/RR CMD INSTALL "rJava_0.9-6.tar.gz" |
第三步,安装sbt
下载 http://www.Scala-sbt.org/download.html
参考http://www.scala-sbt.org/0.13/tutorial/Manual-Installation.html 进行安装
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
cd /softwares/sbtunzip sbt-0.13.5.zipcp sbt/sbt/bin/sbt-launch.jar ~/binvi2 ~/bin/sbtSBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M"java $SBT_OPTS -jar `dirname $0`/sbt-launch.jar "$@"chmod u+x ~/bin/sbt[root@cnsz131016 ~]# mkdir -p /root/.ivy2/local/org.scala-sbt/sbt/0.13.5/jars/[root@cnsz131016 ~]# cp /tmp/sbt.jar /root/.ivy2/local/org.scala-sbt/sbt/0.13.5/jars/[root@cnsz131016 ~]# sbtGetting org.scala-sbt sbt 0.13.5 ...:: retrieving :: org.scala-sbt#boot-app confs: [default] 1 artifacts copied, 0 already retrieved (20kB/69ms)Error during sbt execution: No Scala version specified or detected |
由于无法连接外网,所以没有安装成功。
第四步,安装 SparkR
下载 SparkR (http://amplab-extras.github.io/SparkR-pkg/)
|
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
mkdir SparkRInstallcp amplab-extras-SparkR-pkg-e1f95b6.tar.gz SparkRInstallcd SparkRInstalltar -zxvf amplab-extras-SparkR-pkg-e1f95b6.tar.gzcd amplab-extras-SparkR-pkg-e1f95b6sh install-dev.sh[root@cnsz031907 amplab-extras-SparkR-pkg-e1f95b6]# ./install-dev.sh* installing *source* package ‘SparkR’ ...** libs** arch -./sbt/sbt assemblyAttempting to fetch sbtcurl: (6) Couldn't resolve host 'typesafe.artifactoryonline.com'curl: (6) Couldn't resolve host 'repo.typesafe.com'Launching sbt from sbt/sbt-launch-0.12.4.jarError: Invalid or corrupt jarfile sbt/sbt-launch-0.12.4.jarmake: *** [target/scala-2.10/sparkr-assembly-0.1.jar] Error 1ERROR: compilation failed for package ‘SparkR’* removing ‘/app/SparkRInstall/amplab-extras-SparkR-pkg-e1f95b6/lib/SparkR’ |
由于连不上网,不能直接编译sparkR,故在能联网的机器上对SparkR进行编译,之后再上传使用sbt编译后的包。上传编译后的包之后,使用以下命令进行安装:
|
1
|
sh install-dev.sh |
修改R权限,使所有人都可读
|
1
|
chmod 755 -R /usr/local/lib64/R /usr/lib64/R /usr/local/bin/R |
执行示例:
|
1
2
3
4
5
6
7
8
9
10
11
|
[hadoop@cnsz031907 SparkR-pkg]$ ./sparkR examples/pi.R localWARNING: ignoring environment value of R_HOMELoading required package: methodsLoading required package: rJava[SparkR] Initializing with classpath /app/SparkRInstall/SparkR-pkg/lib/SparkR/sparkr-assembly-0.1.jar14/09/10 17:08:44 INFO Slf4jLogger: Slf4jLogger started100000100000Pi is roughly 3.13832Num elements in RDD 200000 |
修改PATH和CLASSPATH,方便之后使用:
|
1
2
3
4
5
6
7
8
|
chmod 755 -R /app/SparkRInstall/chown -R hadoop:hadoop /app/SparkRInstall/ln -s /app/SparkRInstall/SparkR-pkg /app/sparkRvi2 /etc/profileexport SPARKR_HOME=/app/sparkRexport PATH=$PATH:$SPARKR_HOME/source /etc/profile |
修改sparkR.profile的权限,因为该文件需要所有用户都可读写。
|
1
|
chmod 777 /tmp/sparkR.profile |
【一】利用iso镜像文件创建本地yum源
1. 创建iso存放目录和挂载目录
|
1
2
|
mkdir /app/isomkdir /app/cdrom |
2. 将iso镜像文件上传到/app/iso文件夹下
3. 将/app/iso/下的iso文件挂载到/mnt/cdrom目录
|
1
|
mount -o loop /app/iso/rhel-server-6.5-x86_64-dvd.iso /app/cdrom |
注:挂载完之后对其操作会提示设备繁忙,此时需要umount解开挂载才行
查看是否挂载成功: df -h <用来查看系统中所有挂载的,mount也可以
4.<最关键的一步>如果/etc/yum.repos/下面有其它的*.repo文件,先创建个文件夹,将这些*.repo先转移到文件夹中,自己写一个.repo的文件
|
1
2
|
mkdir /etc/yum.repos.d/bakmv *.repo /etc/yum.repos.d/bak |
然后创建自己的.repo文件 vi myself.repo 内容如下:
|
1
2
3
4
5
6
7
8
9
10
|
[base]name=RedHat#注:这里的baseurl就是你挂载的目录,在这里是/mnt/cdrombaseurl=file:///app/cdrom #注:这里的值enabled一定要为1 enabled=1 gpgckeck的值无所谓gpgckeck=0#注:这个你cd /mnt/cdrom/可以看到这个key,这里仅仅是个例子gpgkey=file:///app/cdrom/RPM-GPG-KEY-redhat-release |
5. 测试:
|
1
2
|
yum clean allyum install gcc-gfortran |
转自:http://www.cnblogs.com/Cherise/p/4342273.html
sparkR介绍及安装的更多相关文章
- 从零自学Hadoop(19):HBase介绍及安装
阅读目录 序 介绍 安装 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一篇, ...
- 从零自学Hadoop(14):Hive介绍及安装
阅读目录 序 介绍 安装 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 本系列已 ...
- Python之路-python(mysql介绍和安装、pymysql、ORM sqlachemy)
本节内容 1.数据库介绍 2.mysql管理 3.mysql数据类型 4.常用mysql命令 创建数据库 外键 增删改查表 5.事务 6.索引 7.python 操作mysql 8.ORM sqlac ...
- Bash on Windows 抢鲜测试 -- 介绍及安装
前言 微软在上周的Windows BUILD大会上宣布,WIN10将引入原生Bash,并将很快在技术预览版中推出. 如此一来,windows的命令行工具就不再只有cmd和powershell了,我们可 ...
- Tyk API网关介绍及安装说明
Tyk API网关介绍及安装说明 Tyk是一个开源的轻量级API网关程序. 什么是API网关 API网关是一个各类不同API的前置服务器.API网关封装了系统内部架构,对外提供统一服务.此外还可以实现 ...
- Python介绍、安装、使用
Python介绍.安装.使用 搬运工:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Python语言介绍 说到Python语言,就不得不说一下它的创始人Guido van Rossu ...
- Redis介绍以及安装(Linux)
Redis介绍以及安装(Linux) redis是当前比较热门的NOSQL系统之一,它是一个key-value存储系统.和Memcached类似,但很大程度补偿了memcached的不足,它支持存储的 ...
- 自动化运维工具之 Ansible 介绍及安装使用
一.初识Ansible 介绍: Absible 使用 模块(Modules)来定义配置任务.模块可以用标准脚本语言(Python,Bash,Ruby,等等)编写,这是一个很好的做法,使每个模块幂等.A ...
- 【兄弟连ThinkPHP】1、介绍和安装
琢磨了好几天的ThinkPHP了,兄弟连的视频真心不错,下面是记得一些要点,只做备忘,有兴趣的朋友请去百度兄弟连. ## ThinkPHP 3 介绍及安装#讲师:赵桐正微博:http://weibo. ...
随机推荐
- php 使用curl获取Location:重定向后url
在php获取http头部信息上,php有个自带的函数get_headers(),我以前也是用这个的,听说效率在win上不咋地,再加上最近研究百度url无果,写了cURL获取重定向url的php代码来折 ...
- U3D面试题系列二
高频问题: 一.什么是渲染管道? 是指在显示器上为了显示出图像而经过的一系列必要操作. 渲染管道中的很多步骤,都要将几何物体从一个坐标系中变换到另一个坐标系中去. 主要步骤有: 本地坐标->视图 ...
- 来自极客头条的 15个常用的javaScript正则表达式
摘要收集整理了15个常用的javaScript正则表达式,其中包括用户名.密码强度.整数.数字.电子邮件地址(Email).手机号码.身份证号.URL地址. IPv4地址. 十六进制颜色. 日期. Q ...
- python:函数中五花八门的参数形式(茴香豆的『回』字有四种写法)
毫不夸张的说,python语言中关于函数参数的使用,是我见过最为灵活的,随便怎么玩都可以,本文以数学乘法为例,演示几种不同的传参形式: 一.默认参数 def multiply1(x, y): retu ...
- DIY自己的AllocateHWnd函数
Classes单元的AllocateHWnd函数是需要传入一个处理消息的类的方法的作为参数的,原型: function AllocateHWnd(Method: TWndMethod): HWND; ...
- 【docker】docker限制日志文件大小的方法+查看日志文件的方法
一.docker日志文件的方法 除了 docker logs -f 容器ID/容器名 这个方法以外. 在linux上,一般docker的日志文件存储在/var/lib/docker/container ...
- Nodejs后台管理员登录实例
思路: 直接访问后台页面时如果无session则跳转到404 当在登录页的表单提交时对数据库进行匹配,匹配成功生成session,否则提示用户名或密码错误 准备页面 :后台首页.登录页.404页, 步 ...
- Amazon.com 美国亚马逊 直邮中国 手把手教程(转)
什么值得买已经发布2014最新版美亚直邮攻略 海淘攻略:美国亚马逊 直邮服务 手把手教程(2014最新版) ,调整幅度较大,值友们可以移步到新攻略中查看. 相比德国.英国亚马逊,美国亚马逊的大部分商品 ...
- [leetcode]Maximal Rectangle @ Python
原题地址:https://oj.leetcode.com/problems/maximal-rectangle/ 题意:Given a 2D binary matrix filled with 0's ...
- Spark机器学习(9):FPGrowth算法
关联规则挖掘最典型的例子是购物篮分析,通过分析可以知道哪些商品经常被一起购买,从而可以改进商品货架的布局. 1. 基本概念 首先,介绍一些基本概念. (1) 关联规则:用于表示数据内隐含的关联性,一般 ...