由于越来越多的人开始使用spark计算框架了,而且spark计算框架也是可以运行在yarn的平台上,因此可以利用单个集群,运行多个计算框架。这是一些大公司都是这么干的。好了,下面讲一下spark1.3.1是如何安装到集群上去的。

  1、由于spark的计算框架依赖于scala,因此在安装spark之前,必须安装scala,于是通过网上下载scala-2.10.5.tgz软件包

    (1)解压

       tar -zxvf scala-2.10.5.tgz

    (2)配置环境变量

        SCALA_HOME=/home/grid/spark/scala-2.10.5

        path=$path:$SCALA_HOME\bin

    (3)测试安装是否成功

      scala -version

      或者通过scala shell命令行界面来验证:

      输入scala  进入:

      

      输入 8*8 ,可以计算出结果

      

  2、安装spark

  (1)首先从网 http://spark.apache.org/downloads.html 上下载spark-1.3.1-bin-hadoop2.4.tar

  (2)解压

      tar -zxvf spark-1.3.1-bin-hadoop2.4.tar

  (3)配置环境变量

    SPARK_HOME=/home/grid/spark/spark-1.3.1

    path=$path:$SPARK_HOME/bin

  (4)修改配置文件

    1)cd  spark-1.3.1\conf

    2)mv spark-env.sh.template spark-env.sh

    3)vi spark-env.sh

    添加以下内容:

      export SCALA_HOME=/home/grid/spark/scala-2.10.5
      export JAVA_HOME=/usr/java/jdk-1.7
      export SPARK_MASTER_IP=192.168.1.21
      export SPARK_WORKER_MEMORY=1024m 
      export master=spark://192.168.1.21:7070

    4)修改slaves文件

      mv slaves.template  slaves

      vi slaves

      添加一下内容:

        hadoop2

        hadoop3

        hadoop4

  (5)启动spark

    pwd
    /home/grid/spark/spark-1.3.1/sbin
    执行 ./start-all.sh 命令。
    注意,hadoop也有start-all.sh脚本,因此必须进入具体目录执行脚本,启动界面如下:

    

    对应的关闭spark也是在sbin目录下,执行

      ./stop-all.sh 即可。

  (6)验证

    1)在master节点上执行jps

      30859 Jps
      30172 Master

    2)在slaves节点上执行jps

      30302 Worker
      30859 Jps

  (7)验证安装情况
      1)运行自带示例

        进入/spark-1.3.1/bin目录下,执行
        ./run-example  org.apache.spark.examples.SparkLR

      2)查看集群环境
        http://hadoop1:8080/

      3)进入spark-shell
        $spark-shell

      4)查看jobs等信息
        http://hadoop1:4040/jobs/

spark1.3.1安装和集群的搭建的更多相关文章

  1. 大数据平台搭建-zookeeper集群的搭建

    本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...

  2. 大数据平台搭建-kafka集群的搭建

    本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...

  3. CentOS6.5 安装Spark集群

    一.安装依赖软件Scala(所有节点) 1.下载Scala:http://www.scala-lang.org/files/archive/scala-2.10.4.tgz 2.解压: [root@H ...

  4. Windows安装RabbitMQ集群的几个注意点

    记录一下RabbitMQ在windows平台下安装的几个注意点- -,好记性不如烂笔头 安装过程与Linux安装一致,教程参照官网集群配置:此处只列举出几个注意点: 1. erlang的版本需要一致, ...

  5. centos7.0 安装redis集群

    生产环境下redis基本上都是用的集群,毕竟单机版随时都可能挂掉,风险太大.这里我就来搭建一个基本的redis集群,功能够用但是还需要完善,当然如果有钱可以去阿里云买云数据库Redis版的,那个还是很 ...

  6. 安装ClouderaManager以及使用ClouderaManager安装分布式集群的若干细节

    目录 前言 整体介绍 分步安装介绍 总结 一.前言        周末干了近四十个小时中间只休息了五个小时终于成功安装了ClouderaManager以及分布式集群,其中各种辛酸无以言表,唯有泪两行. ...

  7. 安装hadoop集群服务器(hadoop1.2.1)

    摘要:hadoop,一个分布式系统基础架构,可以充分利用集群的威力进行高速运算和存储.本文主要介绍hadoop的安装与集群服务器的配置. 准备文件: ▪ VMware11.0.0      ▪ Cen ...

  8. CentOS 6.5 安装HDFS集群(Hadoop-2.7.3)

    安装真实集群,而不是但节点或者伪分布式,以3个节点为例,node1为NameNode和SecondNameNode,node2和node3为DataNode. 1.3台机器的配置必须要一模一样,只需要 ...

  9. Centos安装Kafka集群

    kafka是LinkedIn开发并开源的一个分布式MQ系统,现在是Apache的一个孵化项目.在它的主页描述kafka为一个高吞吐量的分布式(能 将消息分散到不同的节点上)MQ.在这片博文中,作者简单 ...

随机推荐

  1. LF CRLF

    在git提交的时候 有时候会提示这个 LF will be replaced by CRLF 这是因为window的结束符是:回车和换行 crlfmac和linux的结束符是 lf, 于是当代码在这两 ...

  2. 《javascript高级程序设计》 第25章 新兴的API

    25.1 requestAnimationFrame() 25.1.1 早期动画循环 25.1.2 循环间隔的问题 25.1.3 mozRequestAnimation-Frame.webkitReq ...

  3. python中的popen和subprocess

    import os from subprocess import Popen, PIPE res = os.popen('xx.exe E:\\test\\file1 E:\\test\\file2' ...

  4. hdu----(1671)Phone List(Trie带标签)

    Phone List Time Limit: 3000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)Total ...

  5. JSON Viewer

    http://jsonviewer.codeplex.com/ jsoneditor https://github.com/josdejong/jsoneditor

  6. Nodejs异步异常处理domain

    前言 程序开发中,最麻烦的事情之一就是异常处理:对于Nodejs程序开发,最麻烦的事情莫过于异步异常处理. 以MVC的多层架构设计角度,异常总是要一层一层向上抛出,最后在客户端出打印错误.但是,Nod ...

  7. SecureCRT从本传相片到服务器的注意事项

    rz -y -be 注意,要加上参数be

  8. com组件接口

    int main( int argc, char *argv[] ) {    cout << "Initializing COM" << endl;   ...

  9. [转载]DataSet导入到Excel文件

    /// <summary>    /// 将数据导入到Excel    /// </summary>    /// <param name="ds"& ...

  10. Flume数据传输事务分析[转]

    本文基于ThriftSource,MemoryChannel,HdfsSink三个组件,对Flume数据传输的事务进行分析,如果使用的是其他组件,Flume事务具体的处理方式将会不同.一般情况下,用M ...