1.安装Scala

1.1解压和安装

在Scala官网http://www.scala-lang.org/download/下载Scala安装包,然后解压。(注:JDK的版本最好是1.7及以上,否则Scala版本要选择较低的。换言之,JDK版本影响Scala版本的选择。)

执行命令:

tar -zxvf scala-2.11.6.tgz

1.2配置环境变量

#Scala
export SCALA_HOME=/root/install/scala-2.11.6
export PATH=$PATH:$SCALA_HOME/bin

1.3验证安装

执行命令:scala,并且出现下图表示安装成功:

2.部署Spark

2.1解压和安装

在Spark官网http://spark.apache.org/downloads.html下载spark安装包spark-1.2.2-bin-hadoop2.4.tgz,直接解压安装。

执行命令:

tar -zxvf spark-1.2.2-bin-hadoop2.4.tgz

2.2修改配置文件

第一个文件:slaves文件

master
slave-1
slave-2

注:这里master是否写入slaves,①直接影响Spark启动后,用jps是否有worker进程启动;②直接影响web页面是否能够监测到master的状态。

第二个文件:spark-env.sh

首先把spark-env.sh.template文件重命名问spark-env.sh;然后写入以下参数:

export JAVA_HOME=/root/install/jdk1.7.0_76
export SCALA_HOME=/root/install/scala-2.11.6
export HADOOP_HOME=/root/install/hadoop-2.4.1
export HADOOP_CONF_DIR=/root/install/hadoop-2.4.1/etc/hadoop
export SPARK_MASTER_IP=192.168.253.10
export SPARK_MASTER_PORT=7077
export MASTER=spark://192.168.253.10:7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=4g

2.3启动Spark集群

执行命令:

./sbin/start-all.sh

2.4检查是否部署成功

方式一:执行jps命令



方式二:查看Web页面

输入地址:192.168.253.10:8080

PS:以上安装是在JDK,Hadoop安装成功之后进行的安装。关于Hadoop-2.x的安装可以参看这个链接Hadoop-2.x部署,因为Hadoop部署网上很容易找到,我就没有写在博客上,但我个人觉得这个链接讲的很不错。

版权声明:本文为博主原创文章,未经博主允许不得转载。

Spark-1.2.2部署的更多相关文章

  1. Spark介绍及安装部署

    一.Spark介绍 1.1 Apache Spark Apache Spark是一个围绕速度.易用性和复杂分析构建的大数据处理框架(没有数据存储).最初在2009年由加州大学伯克利分校的AMPLab开 ...

  2. 大数据学习笔记——Spark完全分布式完整部署教程

    Spark完全分布式完整部署教程 继Mapreduce之后,作为新一代并且是主流的计算引擎,学好Spark是非常重要的,这一篇博客会专门介绍如何部署一个分布式的Spark计算框架,在之后的博客中,更会 ...

  3. Spark入门:第2节 Spark集群安装:1 - 3;第3节 Spark HA高可用部署:1 - 2

    三. Spark集群安装 3.1 下载spark安装包 下载地址spark官网:http://spark.apache.org/downloads.html 这里我们使用 spark-2.1.3-bi ...

  4. Spark on YARN的部署

    Spark on YARN的原理就是依靠yarn来调度Spark,比默认的Spark运行模式性能要好的多,前提是首先部署好hadoop HDFS并且运行在yarn上,然后就可以开始部署spark on ...

  5. spark standalone zookeeper HA部署方式

    虽然spark master挂掉的几率很低,不过还是被我遇到了一次.以前在spark standalone的文章中也介绍过standalone的ha,现在详细说下部署流程,其实也比较简单. 一.机器 ...

  6. Spark的四种部署方式并对应四种提交方式

    1 Local模式     本地模式  local模式 一台机器即可,开箱即用 不指定master,或者 --master  local  local[N]  local[*] local模式下,使用 ...

  7. spark standalone集群部署 实践记录

    本文记录了一次搭建spark-standalone模式集群的过程,我准备了3个虚拟机服务器,三个centos系统的虚拟机. 环境准备: -每台上安装java1.8 -以及scala2.11.x (x代 ...

  8. spark集群安装部署

    通过Ambari(HDP)或者Cloudera Management (CDH)等集群管理服务安装和部署在此不多介绍,只需要在界面直接操作和配置即可,本文主要通过原生安装,熟悉安装配置流程. 1.选取 ...

  9. Hadoop2.2集群安装配置-Spark集群安装部署

    配置安装Hadoop2.2.0 部署spark 1.0的流程 一.环境描写叙述 本实验在一台Windows7-64下安装Vmware.在Vmware里安装两虚拟机分别例如以下 主机名spark1(19 ...

  10. Spark 集群安装部署

    安装准备 Spark 集群和 Hadoop 类似,也是采用主从架构,Spark 中的主服务器进程就叫 Master(standalone 模式),从服务器进程叫 Worker Spark 集群规划如下 ...

随机推荐

  1. ArcGIS案例学习1_2

    ArcGIS案例学习1_2 联系方式:谢老师,135_4855_4328, xiexiaokui#qq.com 时间:第一天下午 案例1:矢量提取,栅格提取和坐标系投影变换 目的:认识数据类型 教程: ...

  2. spring中的BeanFactory和FactoryBean的区别与联系

    首先,这俩都是个接口… 实现 BeanFactory 接口的类表明此类是一个工厂,作用就是配置.新建.管理 各种Bean. 而 实现 FactoryBean 的类表明此类也是一个Bean,类型为工厂B ...

  3. 本地管理表空间(LMT)与自动段空间管理(ASSM)概念

    创建表空间时,extent management local 定义本地管理表空间(LMT),segment space management auto 定义自动段空间管理(ASSM). extent ...

  4. Eclipse中Git插件使用技巧:还原文件

    如果修改了某个文件并未提交至本地库(add index),那么怎么还原呢?Git插件中并不像Svn插件直接提供有还原方式.其实无论是否提交至本地库或者远程库,还原操作的本质都是将文件的当前版本还原至之 ...

  5. 部分真验货客户未取进FP IN_SALES_ORDER表有数据,前台规划页面没显示

    描述:部分真验货客户未取进FP,检查发现IN_SALES_ORDER表有数据630\600\610行项目数据,但前台只显示630数据,600和610前台没有显示 1.查看IN_SALES_ORDER表 ...

  6. ftp指令集

    想进行ftp相关编程,得了解ftp的指令集. 可参考:http://blog.csdn.net/weiyuefei/article/details/51758288 ftp的命令和指令集不同: 命令是 ...

  7. 215. Kth Largest Element in an Array(QuickSort)

    Find the kth largest element in an unsorted array. Note that it is the kth largest element in the so ...

  8. vmware14中安装centos7并使用docker发布spring-boot项目

    1.vmare中centos7安装(同一路由器无线网络下) 1.1选择桥接模式 1.2修改配置文件 vi /etc/sysconfig/network-scripts/ifcfg-ens33(这里不一 ...

  9. DataTableExtensions

    public static class DataTableExtensions { public static List<dynamic> ToDynamic(this DataTable ...

  10. apache日志里出现GET http://wujieliulan.com/mnews.htmHTTP/1.1解决方法

    笔者最近搭建了服务器,Ubuntu 16.04.3 LTS,apache日志里老是出现一些莫名其妙的日志. 好像谁用了我的服务器做代理,日志如下 凭借着小学文化 :) 勉强读懂了汉语拼音wujieli ...