Spark-1.2.2部署
1.安装Scala
1.1解压和安装
在Scala官网http://www.scala-lang.org/download/下载Scala安装包,然后解压。(注:JDK的版本最好是1.7及以上,否则Scala版本要选择较低的。换言之,JDK版本影响Scala版本的选择。)
执行命令:
tar -zxvf scala-2.11.6.tgz
1.2配置环境变量
#Scala
export SCALA_HOME=/root/install/scala-2.11.6
export PATH=$PATH:$SCALA_HOME/bin
1.3验证安装
执行命令:scala,并且出现下图表示安装成功:
2.部署Spark
2.1解压和安装
在Spark官网http://spark.apache.org/downloads.html下载spark安装包spark-1.2.2-bin-hadoop2.4.tgz,直接解压安装。
执行命令:
tar -zxvf spark-1.2.2-bin-hadoop2.4.tgz
2.2修改配置文件
第一个文件:slaves文件
master
slave-1
slave-2
注:这里master是否写入slaves,①直接影响Spark启动后,用jps是否有worker进程启动;②直接影响web页面是否能够监测到master的状态。
第二个文件:spark-env.sh
首先把spark-env.sh.template文件重命名问spark-env.sh;然后写入以下参数:
export JAVA_HOME=/root/install/jdk1.7.0_76
export SCALA_HOME=/root/install/scala-2.11.6
export HADOOP_HOME=/root/install/hadoop-2.4.1
export HADOOP_CONF_DIR=/root/install/hadoop-2.4.1/etc/hadoop
export SPARK_MASTER_IP=192.168.253.10
export SPARK_MASTER_PORT=7077
export MASTER=spark://192.168.253.10:7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=4g
2.3启动Spark集群
执行命令:
./sbin/start-all.sh
2.4检查是否部署成功
方式一:执行jps命令
方式二:查看Web页面
输入地址:192.168.253.10:8080
PS:以上安装是在JDK,Hadoop安装成功之后进行的安装。关于Hadoop-2.x的安装可以参看这个链接Hadoop-2.x部署,因为Hadoop部署网上很容易找到,我就没有写在博客上,但我个人觉得这个链接讲的很不错。
版权声明:本文为博主原创文章,未经博主允许不得转载。
Spark-1.2.2部署的更多相关文章
- Spark介绍及安装部署
一.Spark介绍 1.1 Apache Spark Apache Spark是一个围绕速度.易用性和复杂分析构建的大数据处理框架(没有数据存储).最初在2009年由加州大学伯克利分校的AMPLab开 ...
- 大数据学习笔记——Spark完全分布式完整部署教程
Spark完全分布式完整部署教程 继Mapreduce之后,作为新一代并且是主流的计算引擎,学好Spark是非常重要的,这一篇博客会专门介绍如何部署一个分布式的Spark计算框架,在之后的博客中,更会 ...
- Spark入门:第2节 Spark集群安装:1 - 3;第3节 Spark HA高可用部署:1 - 2
三. Spark集群安装 3.1 下载spark安装包 下载地址spark官网:http://spark.apache.org/downloads.html 这里我们使用 spark-2.1.3-bi ...
- Spark on YARN的部署
Spark on YARN的原理就是依靠yarn来调度Spark,比默认的Spark运行模式性能要好的多,前提是首先部署好hadoop HDFS并且运行在yarn上,然后就可以开始部署spark on ...
- spark standalone zookeeper HA部署方式
虽然spark master挂掉的几率很低,不过还是被我遇到了一次.以前在spark standalone的文章中也介绍过standalone的ha,现在详细说下部署流程,其实也比较简单. 一.机器 ...
- Spark的四种部署方式并对应四种提交方式
1 Local模式 本地模式 local模式 一台机器即可,开箱即用 不指定master,或者 --master local local[N] local[*] local模式下,使用 ...
- spark standalone集群部署 实践记录
本文记录了一次搭建spark-standalone模式集群的过程,我准备了3个虚拟机服务器,三个centos系统的虚拟机. 环境准备: -每台上安装java1.8 -以及scala2.11.x (x代 ...
- spark集群安装部署
通过Ambari(HDP)或者Cloudera Management (CDH)等集群管理服务安装和部署在此不多介绍,只需要在界面直接操作和配置即可,本文主要通过原生安装,熟悉安装配置流程. 1.选取 ...
- Hadoop2.2集群安装配置-Spark集群安装部署
配置安装Hadoop2.2.0 部署spark 1.0的流程 一.环境描写叙述 本实验在一台Windows7-64下安装Vmware.在Vmware里安装两虚拟机分别例如以下 主机名spark1(19 ...
- Spark 集群安装部署
安装准备 Spark 集群和 Hadoop 类似,也是采用主从架构,Spark 中的主服务器进程就叫 Master(standalone 模式),从服务器进程叫 Worker Spark 集群规划如下 ...
随机推荐
- ArcGIS案例学习1_2
ArcGIS案例学习1_2 联系方式:谢老师,135_4855_4328, xiexiaokui#qq.com 时间:第一天下午 案例1:矢量提取,栅格提取和坐标系投影变换 目的:认识数据类型 教程: ...
- spring中的BeanFactory和FactoryBean的区别与联系
首先,这俩都是个接口… 实现 BeanFactory 接口的类表明此类是一个工厂,作用就是配置.新建.管理 各种Bean. 而 实现 FactoryBean 的类表明此类也是一个Bean,类型为工厂B ...
- 本地管理表空间(LMT)与自动段空间管理(ASSM)概念
创建表空间时,extent management local 定义本地管理表空间(LMT),segment space management auto 定义自动段空间管理(ASSM). extent ...
- Eclipse中Git插件使用技巧:还原文件
如果修改了某个文件并未提交至本地库(add index),那么怎么还原呢?Git插件中并不像Svn插件直接提供有还原方式.其实无论是否提交至本地库或者远程库,还原操作的本质都是将文件的当前版本还原至之 ...
- 部分真验货客户未取进FP IN_SALES_ORDER表有数据,前台规划页面没显示
描述:部分真验货客户未取进FP,检查发现IN_SALES_ORDER表有数据630\600\610行项目数据,但前台只显示630数据,600和610前台没有显示 1.查看IN_SALES_ORDER表 ...
- ftp指令集
想进行ftp相关编程,得了解ftp的指令集. 可参考:http://blog.csdn.net/weiyuefei/article/details/51758288 ftp的命令和指令集不同: 命令是 ...
- 215. Kth Largest Element in an Array(QuickSort)
Find the kth largest element in an unsorted array. Note that it is the kth largest element in the so ...
- vmware14中安装centos7并使用docker发布spring-boot项目
1.vmare中centos7安装(同一路由器无线网络下) 1.1选择桥接模式 1.2修改配置文件 vi /etc/sysconfig/network-scripts/ifcfg-ens33(这里不一 ...
- DataTableExtensions
public static class DataTableExtensions { public static List<dynamic> ToDynamic(this DataTable ...
- apache日志里出现GET http://wujieliulan.com/mnews.htmHTTP/1.1解决方法
笔者最近搭建了服务器,Ubuntu 16.04.3 LTS,apache日志里老是出现一些莫名其妙的日志. 好像谁用了我的服务器做代理,日志如下 凭借着小学文化 :) 勉强读懂了汉语拼音wujieli ...