apache的各个软件各个版本下载:  http://archive.apache.org/dist/

1.下载spark.

  sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/

  cd /usr/local

  sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark

  sudo chown -R ubuntu ./spark

2.在Mster节点主机的终端中执行如下命令:

  vim ~/.bashrc

  在.bashrc添加如下配置:

    export SPARK_HOME=/usr/local/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
  执行如下命令使得配置立即生效:

    source ~/.bashrc

3.在Master节点主机上进行如下操作:

  配置slaves文件
    将 slaves.template 拷贝到 slaves

    1. cd /usr/local/spark/
    2. cp ./conf/slaves.template ./conf/slaves

    slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

    slave01    

  配置spark-env.sh文件

    将 spark-env.sh.template 拷贝到 spark-env.sh

      cp ./conf/spark-env.sh.template ./conf/spark-env.sh

  编辑spark-env.sh,添加如下内容:

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
    

    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
    

    export SPARK_MASTER_IP=192.168.1.104

      SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

  配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

    1. cd /usr/local/
    2. tar -zcf ~/spark.master.tar.gz ./spark
    3. cd ~
    4. scp ./spark.master.tar.gz slave01:/home/hadoop
    5. scp ./spark.master.tar.gz slave02:/home/hadoop

  在slave01,slave02节点上分别执行下面同样的操作:

    1. sudo rm -rf /usr/local/spark/
    2. sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
    3. sudo chown -R hadoop /usr/local/spark

4.启动hadoop集群,在master节点上运行。

  1. cd /usr/local/hadoop/
  2. sbin/start-all.sh

5.启动spark集群,在master节点上运行。

  cd /usr/local/spark/

  sbin/start-master.sh

  在Master节点上运行jps命令,可以看到多了个Master进程:

    15093 Jps

    14343 SecondaryNameNode

    14121 NameNode

    14891 Master 

    14509 ResourceManager

  启动所有Slave节点,在Master节点主机上运行如下命令:

     sbin/start-slaves.sh

  分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程
    37553 DataNode
    37684 NodeManager
    37876 Worker
    37924 Jps

  http://172.19.57.221:8080/   spark web网页。

6.关闭spark集群

  关闭Master节点

    sbin/stop-master.sh

  关闭Worker节点

    sbin/stop-slaves.sh

关闭Hadoop集群

  1. cd /usr/local/hadoop/
  1. sbin/stop-all.sh

分布式配置 Spark 2.0版本 2.1版本 1.6版本的更多相关文章

  1. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  2. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    摘自: http://www.cnblogs.com/kinglau/p/3796164.html http://www.powerxing.com/install-hadoop/ 当开始着手实践 H ...

  3. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04(转)

    http://www.powerxing.com/install-hadoop/ http://blog.csdn.net/beginner_lee/article/details/6429146 h ...

  4. 【转】Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文链接:http://dblab.xmu.edu.cn/blog/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单, ...

  5. 分布式配置hadoop2.5.0 2.6.x

    1. sudo vim /etc/hostname 在master的机器上,改成     master 在slave上写  slave01,02,03...... 配置好后重启. 2. sudo vi ...

  6. Ubuntu14.04 安装配置Hadoop2.6.0

    目前关于Hadoop的安装配置教程书上.官方教程.博客都有很多,但由于对Linux环境的不熟悉以及各种教程或多或少有这样那样的坑,很容易导致折腾许久都安装不成功(本人就是受害人之一).经过几天不断尝试 ...

  7. Apache Spark 3.0 预览版正式发布,多项重大功能发布

    2019年11月08日 数砖的 Xingbo Jiang 大佬给社区发了一封邮件,宣布 Apache Spark 3.0 预览版正式发布,这个版本主要是为了对即将发布的 Apache Spark 3. ...

  8. CentOS 7.0下面安装并配置Spark

    安装环境: 虚拟机:VMware® Workstation 8.0.1(网络桥接) OS:CentOS 7 JDK版本:jdk-7u79-linux-x64.tar Scala版本:scala-2.1 ...

  9. 在eclipse中配置spark 0.9.1源码的开发环境

    一.准备工作: 1.下载release版spark 0.9.1,本次用的版本是spark-0.9.1-bin-cdh4. 2.下载scala IDE 3.0.2,这个版本ide的支持scala 2.1 ...

随机推荐

  1. python多线程threading下载示例

    #coding:utf-8 # windows中测试不通过,下载的图片不完整 # 通过多线程下载图片 import requests import threading class downloader ...

  2. linux 提高代码质量的工具

    很多IT公司对于软件开发都有严格的分工,这包括设计.测试.服务支持等等.但是,我一直都认为只有开发者才是真正对软件质量负责的人.没有好的软件设计,软件质量基本上是无从谈起.当然,要做到这一点是需要额外 ...

  3. UniversalImageLoader(异步加载大量图片)

    UniversalImageLoader是用于加载图片的一个开源项目,UniversalImageLoader是实现异步加载大量图片的源码和例子,包括缓存.硬盘缓存.容错机制等技术.在其项目介绍中是这 ...

  4. Docker入门 - 006 Docker 多种数据库的安装

    Docker 安装 MySQL 查找Docker Hub上的mysql镜像 root@VM_16_14_centos ~# docker search mysql INDEX NAME DESCRIP ...

  5. oracle user locked(timed)处理

    故障现象: SQL> connect scott/scottERROR:ORA-01017: invalid username/password; logon deniedSQL> con ...

  6. Confluence 6 已经存在的 Confluence 安装配置一个数据源连接

    如果你希望在使用 JDBC 直接方式的应用中切换到使用数据源: 停止 Confluence. 备份下面的文件,以防止你可能需要重新恢复你的配置: <installation-directory& ...

  7. Confluence 6 关于统一插件管理器

    所有的组件通过 统一插件管理器(Universal Plugin Manager)进行管理,这个也被称为 UPM.UPM 可以在几乎所有的 Atlassian 应用中找到,能够提供完整同意的插件安装管 ...

  8. Android 自动化测试框架

    Android常用的自动化测试工具框架: Monkey,MonkeyRunner,UIAutomator,Robotium,Appium,Monkey Talk...... 但这些工具框架都是什么呢有 ...

  9. LeetCode(79): 单词搜索

    Medium! 题目描述: 给定一个二维网格和一个单词,找出该单词是否存在于网格中. 单词必须按照字母顺序,通过相邻的单元格内的字母构成,其中“相邻”单元格是那些水平相邻或垂直相邻的单元格.同一个单元 ...

  10. strchr()

    strchr()主要有2个最有用的用法: 第一个:搜索字符串在另一字符串中的第一次出现.并返回剩余的部分 $str = "hello_chrdai_1993"; $not_incl ...