spark安装
Spark下载
在spark主页的download下,选择自己想要安装的spark版本, 注意跟本地hadoop的兼容性。我这里选择了2.4.0.
https://www.apache.org/dyn/closer.lua/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz
解压与配置环境变量
在master机器上的/opt/spark/下解压安装包
[root@master spark]# tar zxvf spark-2.4.-bin-hadoop2..tgz
在集群各台机器上添加环境变量
vi /etc/profile
export SPARK_HOME=/opt/spark/spark-2.4.-bin-hadoop2./
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SPARK_HOME/bin:
[root@master spark]# source /etc/profile
配置spark环境
进入spark配置文件路径
[root@master conf]# cd /opt/spark/spark-2.4.0-bin-hadoop2.7/conf
此处需要配置的文件为两个 spark-env.sh和slaves
首先拷贝模板文件
[root@master conf]# cp spark-env.sh.template spark-env.sh
[root@master conf]# cp slaves.template slaves
修改spark-env.sh文件
[root@master conf]# vi spark-env.sh
export JAVA_HOME=/opt/java/jdk1..0_191 export HADOOP_HOME=/opt/hadoop/hadoop-2.9./ export HADOOP_CONF_DIR=/opt/hadoop/hadoop-2.9./etc/hadoop export SPARK_MASTER_IP=192.168.102.3 export SPARK_WORKER_MEMORY=500m export SPARK_WORKER_CORES= export SPARK_WORKER_INSTANCES=
变量说明 
- JAVA_HOME:Java安装目录 
- HADOOP_HOME:hadoop安装目录 
- HADOOP_CONF_DIR:hadoop集群的配置文件的目录 
- SPARK_MASTER_IP:spark集群的Master节点的ip地址 
- SPARK_WORKER_MEMORY:每个worker节点能够最大分配给exectors的内存大小 
- SPARK_WORKER_CORES:每个worker节点所占有的CPU核数目 
- SPARK_WORKER_INSTANCES:每台机器上开启的worker节点的数目
这边个人配置都有一定区别,选自己需要的配置就可以了。
修改slaves文件
[root@master conf]# vi slaves
slave1
slave2
将配置好的spark文件夹分发给所有slaves
首先在slave1 和slave2上创建spark文件夹
mkdir /opt/spark/
分发spark
[root@master conf]# scp -r /opt/spark/spark-2.4.-bin-hadoop2. slave1:/opt/spark/
[root@master conf]# scp -r /opt/spark/spark-2.4.-bin-hadoop2. slave2:/opt/spark/
启动Spark集群
因为我们只需要使用hadoop的HDFS文件系统,所以我们并不用把hadoop全部功能都启动。
启动hadoop的HDFS文件系统
[root@master sbin]# start-dfs.sh
启动Spark
因为hadoop/sbin以及spark/sbin均配置到了系统的环境中,它们同一个文件夹下存在同样的start-all.sh文件。所以我把spark的start-all.sh改了一个名字,方便以后使用。
[root@master sbin]# mv start-all.sh start-all-spark.sh
[root@master sbin]# start-all-spark.sh
成功打开之后使用jps在master、slave1和slave2节点上分别可以看到新开启的Master和Worker进程。
[root@master sbin]# jps
Jps
Master
NodeManager
NameNode
JobHistoryServer
[root@slave1 spark]# jps
Worker
NodeManager
DataNode
Jps
ResourceManager
[root@slave2 java]# jps
NodeManager
Jps
SecondaryNameNode
Worker
DataNode
成功打开Spark集群之后可以进入Spark的WebUI界面,可以通过下面地址访问
http://192.168.102.3:8080/
spark安装的更多相关文章
- Hive on Spark安装配置详解(都是坑啊)
		
个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...
 - Spark学习(一) -- Spark安装及简介
		
标签(空格分隔): Spark 学习中的知识点:函数式编程.泛型编程.面向对象.并行编程. 任何工具的产生都会涉及这几个问题: 现实问题是什么? 理论模型的提出. 工程实现. 思考: 数据规模达到一台 ...
 - Windows环境中Openfire与Spark安装与配置指南
		
安装软件: openfire3.9.3 spark2.6.3 安装环境: WindowsXP JDK1.6.0_21 Oracle 一.openfire安装 1.安装openfire3.9.3,下载地 ...
 - (转)Spark安装与学习
		
摘要:Spark是继Hadoop之后的新一代大数据分布式处理框架,由UC Berkeley的Matei Zaharia主导开发.我只能说是神一样的人物造就的神器,详情请猛击http://www.spa ...
 - spark安装mysql与hive
		
第一眼spark安装文件夹lib\spark-assembly-1.0.0-hadoop2.2.0.jar\org\apache\spark\sql下有没有hive文件夹,假设没有的话先下载支持hiv ...
 - Spark环境搭建(下)——Spark安装
		
1. 下载Spark 1.1 官网下载Spark http://spark.apache.org/downloads.html 打开上述链接,进入到下图,点击红框下载Spark-2.2.0-bin-h ...
 - hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装
		
hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装 一.依赖文件安装 1.1 JDK 参见博文:http://www.cnblogs.com/liugh ...
 - Spark学习之Spark安装
		
Spark安装 spark运行环境 spark是Scala写的,运行在jvm上,运行环境为java7+ 如果使用Python的API ,需要使用Python2.6+或者Python3.4+ Spark ...
 - Spark安装部署(local和standalone模式)
		
Spark运行的4中模式: Local Standalone Yarn Mesos 一.安装spark前期准备 1.安装java $ sudo tar -zxvf jdk-7u67-linux-x64 ...
 - Spark安装过程纪录
		
1 Scala安装 1.1 master 机器 修改 scala 目录所属用户和用户组. sudo chown -R hadoop:hadoop scala 修改环境变量文件 .bashrc , 添加 ...
 
随机推荐
- js 获取字符串中所有的数字和汉字
			
var re1 = /(\d{1,3})+(?:\.\d+)?/g var re2 = /[\u4e00-\u9fa5]{2,}/g var str="11我22们33两个"; v ...
 - centos 6.5 下 nginx 简单优化_虚拟主机_负载均衡
			
# 用了nginx for win很久,安装也是超级简单.# 还是用一下linux版的吧.环境是centos 6.5 x64 # 安装开始: # 先安装依赖 yum install gcc-c++ y ...
 - json的xpath:简易数据查询
			
class JsonQuery(object): def __init__(self, data): super(JsonQuery, self).__init__() self.data = dat ...
 - 马凯军201771010116《面向对象与程序设计Java》第十二周学习总结
			
一.理论与知识学习部分 Java的抽象窗口工具箱(Abstract Window Toolkit, AWT)包含在java.awt包中,它提供了许多用来设计GUI的组件类和容器类. 大部分AWT组件都 ...
 - 将 Range 对象赋给变量
			
有多种方法将现有的 Range 对象赋给变量.本主题对两种不同的方法进行了阐述.在下列示例中,将 Range 对象赋给变量 Range1 和 Range2.例如,下列指令将活动文档中的第一个和第二个单 ...
 - 周强 201771010141 《面向对象程序设计(java)》第九周实验总结
			
实验部分 1.实验目的与要求 (1) 掌握java异常处理技术: (2) 了解断言的用法: (3) 了解日志的用途: (4) 掌握程序基础调试技巧: 2.实验内容和步骤 实验1:用命令行与IDE两种环 ...
 - [C# 基础知识系列]专题二:委托的本质论 (转载)
			
引言: 上一个专题已经和大家分享了我理解的——C#中为什么需要委托,专题中简单介绍了下委托是什么以及委托简单的应用的,在这个专题中将对委托做进一步的介绍的,本专题主要对委本质和委托链进行讨论. 一.委 ...
 - Python多进程并发(multiprocessing)
			
1.新建单一进程 如果我们新建少量进程,可以如下: 2.使用进程池 是的,你没有看错,不是线程池.它可以让你跑满多核CPU,而且使用方法非常简单. 注意要用apply_async,如果落下async, ...
 - 连续多次调用inet_ntoa()结果重复
			
#include <stdio.h> #include <stdlib.h> #include <string.h> #include <pcap.h> ...
 - VS2008安装“Visual Studio Web 创作组件”安装失败的解决方法
			
VS2008安装“Visual Studio Web 创作组件”安装失败的解决方法 今天在单位电脑安装VS2008,当安装到“Visual Studio Web 创作组件”时出现错误. 准备手动安装 ...