(1)编译前的准备工作,安装jdk,解压maven,解压spark,解压scala并配置相关的环境变量
export JAVA_HOME=/opt/module/jdk1.6.0_45
export PATH=$PATH:$JAVA_HOME/bin

export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin

export SCALA_HOME=/opt/module/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin
(2)如果使用mvn方式,还需增加 export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m",不然会出现错误错误
一切工作准备就绪,则开始编译 mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package
这些数值设置的是不通的参数的值,可以查看官方文档,根据提示设置其他的值。
(3)如果使用的是make-distribution.sh,则需要做以下修改
配置域名服务器
#vim /resolv.conf
内容:
nameserver 8.8.8.8
nameserver 8.8.4.4
最后:
./make-distribution.sh --tgz -Pyarn -Phadoop-2.4 -Dhadoop.version=2.6.0-cdh5.4.0 -Phive-0.13.1 -Phive-thriftserver
./make-distribution.sh --tgz -Pyarn -Phadoop-2.4 -Dhadoop.version=2.6.0-cdh5.4.0 -Phive-0.13.1 -Phive-thriftserver
为了减少时间,我们对make-distribution.sh文件做如下修改
VERSION=1.3.0 #设置spark版本
SPARK_HADOOP_VERSION=2.6.0-cdh5.4.0
SPARK_HIVE=1
等待1个半小时 。。。。。。。。。。。。。。。。
出现了下边的内容,则成功了
Saving to outputFile=/opt/module/spark-1.3.0/external/kafka-assembly/scalastyle-output.xml
Processed 0 file(s)
Found 0 errors
Found 0 warnings
Found 0 infos
Finished in 0 ms
[INFO] ------------------------------------------------------------------------
[INFO] Reactor Summary:
[INFO] [INFO] Spark Project Parent POM .......................... SUCCESS [20.658s][INFO] Spark Project Networking .......................... SUCCESS [59.540s][INFO] Spark Project Shuffle Streaming Service ........... SUCCESS [19.474s][INFO] Spark Project Core ................................ SUCCESS [17:10.312s][INFO] Spark Project Bagel ............................... SUCCESS [3:25.347s][INFO] Spark Project GraphX .............................. SUCCESS [6:48.707s][INFO] Spark Project Streaming ........................... SUCCESS [4:51.339s][INFO] Spark Project Catalyst ............................ SUCCESS [6:09.566s][INFO] Spark Project SQL ................................. SUCCESS [5:40.546s][INFO] Spark Project ML Library .......................... SUCCESS [6:50.022s][INFO] Spark Project Tools ............................... SUCCESS [1:02.293s][INFO] Spark Project Hive ................................ SUCCESS [7:17.840s][INFO] Spark Project REPL ................................ SUCCESS [2:37.665s][INFO] Spark Project YARN ................................ SUCCESS [1:23.802s][INFO] Spark Project Assembly ............................ SUCCESS [3:10.951s][INFO] Spark Project External Twitter .................... SUCCESS [2:56.559s][INFO] Spark Project External Flume Sink ................. SUCCESS [1:07.428s][INFO] Spark Project External Flume ...................... SUCCESS [34.766s][INFO] Spark Project External MQTT ....................... SUCCESS [1:47.120s][INFO] Spark Project External ZeroMQ ..................... SUCCESS [38.234s][INFO] Spark Project External Kafka ...................... SUCCESS [1:05.513s][INFO] Spark Project Examples ............................ SUCCESS [7:23.760s][INFO] Spark Project YARN Shuffle Service ................ SUCCESS [40.643s][INFO] Spark Project External Kafka Assembly ............. SUCCESS [48.520s][INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 1:25:14.796s
[INFO] Finished at: Mon Nov 16 23:55:37 PST 2015
[INFO] Final Memory: 65M/200M
[INFO] ------------------------------------------------------------------------

spark(一) build的更多相关文章

  1. Spark SQL 之 Data Sources

    #Spark SQL 之 Data Sources 转载请注明出处:http://www.cnblogs.com/BYRans/ 数据源(Data Source) Spark SQL的DataFram ...

  2. Spark SQL 官方文档-中文翻译

    Spark SQL 官方文档-中文翻译 Spark版本:Spark 1.5.2 转载请注明出处:http://www.cnblogs.com/BYRans/ 1 概述(Overview) 2 Data ...

  3. Spark SQL - DataFrame

    1 Overview Spark SQL is a Spark module for structured data processing. It provides a programming abs ...

  4. spark结合 Openfire服务器,发送聊天消息

    1.下载OpenFire服务器,进行安装,参考http://www.cnblogs.com/hoojo/archive/2012/05/17/2506769.html 2.程序运行客户端:下载客户端代 ...

  5. 即时通讯软件openfire+spark+smack

    所以我基本上分为三篇文章来介绍此类软件的开发: 第一篇是关于XMPP 协议是啥,IM 是啥以及一个比较有名的开源实现,该开源实现包括三个部分(Spark.Smack和Openfire): 第二篇讲如何 ...

  6. Spark 灰度发布在十万级节点上的成功实践 CI CD

    原创文章,转载请务必将下面这段话置于文章开头处. 本文转发自技术世界,原文链接 http://www.jasongj.com/spark/ci_cd/ 本文所述内容基于某顶级互联网公司数万节点下 Sp ...

  7. 解决在编程方式下无法访问Spark Master问题

    我们可以选择使用spark-shell,spark-submit或者编写代码的方式运行Spark.在产品环境下,利用spark-submit将jar提交到spark,是较为常见的做法.但是在开发期间, ...

  8. Spark记录-SparkSql官方文档中文翻译(部分转载)

    1 概述(Overview) Spark SQL是Spark的一个组件,用于结构化数据的计算.Spark SQL提供了一个称为DataFrames的编程抽象,DataFrames可以充当分布式SQL查 ...

  9. 编译安装spark 1.5.x(Building Spark)

    原文连接:http://spark.apache.org/docs/1.5.0/building-spark.html · Building with build/mvn · Building a R ...

  10. Spark记录-源码编译spark2.2.0(结合Hive on Spark/Hive on MR2/Spark on Yarn)

    #spark2.2.0源码编译 #组件:mvn-3.3.9 jdk-1.8 #wget http://mirror.bit.edu.cn/apache/spark/spark-2.2.0/spark- ...

随机推荐

  1. c# 操作word

    using System; using System.Collections.Generic; using System.Linq; using System.Web; using System.We ...

  2. reset.css(详细说明)

    @charset "utf-8";/************************************************************************ ...

  3. CMD相关命令初探

    今天想起来对个人写得一个自动启动绿色版MySQL服务器端的批处理文件,进行外观美化,使自己在启动时,能得心旷神怡一点.在网上学习了一点CMD批处理的知识.在此保留,以待后查. @      @:不显示 ...

  4. SQL Server 在线进程分析处理

    SQL Server 在线进程分析处理 前言 数据库在线进程处理在很多时候需要人为干预已达到预期管理目标,下面整理一下常用的在线进程管理方法,便于后续工作使用. 一.查看目标数据库在线进程,并杀死指定 ...

  5. 关于Windows下如何查看端口占用和杀掉进程

    更详细博客参见: http://www.cnblogs.com/chenwenbiao/archive/2012/06/24/2559954.html 或可参考:http://www.cnblogs. ...

  6. 关于线程池ThreadPoolExecutor使用总结

    本文引用自: http://blog.chinaunix.net/uid-20577907-id-3519578.html 一.简介 线程池类为 java.util.concurrent.Thread ...

  7. 屏蔽cBox广告的方法 无需安装软件

    在hosts文件中加入两句代码: 127.0.0.1 games.cntv.cn 127.0.0.1 d.cntv.cn

  8. Redis - HyperLogLogs

    A HyperLogLog is a probabilistic data structure used in order to count unique things (technically th ...

  9. python学习day5--set、函数

    1.set 无序,不重复序列 创建:与dict一样用{},区别在于dict内元素为键值对 se={"123","456,444"} print(type(se) ...

  10. 剑指offer——替换字符串

    总结:先计算出总共有多少空格,count++:然后从后往前遍历,每遇到一个空格,count--:       替换空格 参与人数:2119时间限制:1秒空间限制:32768K 通过比例:20.23% ...