1 Scala安装

1.1 master 机器

修改 scala 目录所属用户和用户组。

	sudo chown -R hadoop:hadoop scala

修改环境变量文件 .bashrc , 添加以下内容。

	# Scala Env
export SCALA_HOME=/home/hadoop/opt/scala
export PATH=$PATH:$SCALA_HOME/bin

运行 source .bashrc 使环境变量生效。

验证 Scala 安装

	$scala
scala > 1+1

1.2 Slaver机器

参照 master 机器安装步骤进行安装。

2 Spark安装

2.1 master 机器

修改 spark目录所属用户和用户组。

	chown -R hadoop:hadoop spark

修改环境变量文件 .bashrc , 添加以下内容。

	# Spark Env
export SPARK_HOME=/home/hadoop/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

运行 source .bashrc 使环境变量生效。

修改配置文件

进入 Spark 安装目录下的 conf 目录, 拷贝 spark-env.sh.template 到 spark-env.sh。

	cp spark-env.sh.template spark-env.sh

编辑 spark-env.sh,在其中添加以下配置信息:

	export SCALA_HOME=/home/hadoop/opt/scala
export JAVA_HOME=/home/hadoop/opt/java/jdk1.8
export SPARK_MASTER_IP=192.168.109.137
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/home/hadoop/opt/hadoop/etc/hadoop
  • JAVA_HOME 指定 Java 安装目录;
  • SCALA_HOME 指定 Scala 安装目录;
  • SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;
  • SPARK_WORKER_MEMORY 指定的是 Worker 节点能够分配给 Executors 的最大内存大小;
  • HADOOP_CONF_DIR 指定 Hadoop 集群配置文件目录。

将 slaves.template 拷贝到 slaves, 编辑其内容为:

	Slaver1

如果在slaves中有Master,即 Master 既是 Master 节点又是 Worker 节点。(怎么规划需根据实际需求进一步考量)

2.2 slave机器

参照 master 机器安装步骤进行安装。

2.3 启动 Spark 集群

2.3.1 启动 Master 节点

运行 start-master.sh,结果可以看到 master 上多了一个新进程 Master。

2.3.2 启动所有 Worker 节点

运行 start-slaves.sh, 运行结果在slaves内设定的节点上使用 jps 命令,可以发现都启动了一个 Worker 进程。

2.4 验证安装

2.4.1 WEB UI

浏览器查看 Spark 集群信息

访问:http://master:8080

2.4.2 运行spark-shell

执行些什么都行。

2.4.3 浏览器访问 SparkUI

访问 http://master:4040

2.5 停止 Spark 集群

2.5.1 停止 Master 节点

运行 stop-master.sh 来停止 Master 节点。使用 jps 命令查看当前 java 进程,可以发现 Master 进程已经停止。

2.5.2 停止 Worker 节点

运行 stop-slaves.sh 可以停止所有的 Worker 节点。使用 jps 命令查看进程信息。可以看到, Worker 进程均已停止,最后再停止 Hadoop 集群。

3 参考文献

Spark安装过程纪录的更多相关文章

  1. Spark安装过程

    Precondition:jdk.Scala安装,/etc/profile文件部分内容如下: JAVA_HOME=/home/Spark/husor/jdk CLASSPATH=.:$JAVA_HOM ...

  2. Zookeeper与HBse安装过程纪录

    1 zookeeper安装 1.1 环境变量 1.2 配置zoo.cfg 初次使用 ZooKeeper 时, 需要将 $ZOOKEEPER_HOME/conf 目录下的 zoo_sample.cfg ...

  3. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  4. 2016最新cocoapods安装流程,安装过程中遇到的问题及解决方法

    现在的cocoapods与之前比较.有很多不一样的地方.自己试了一试,终于搞定.现在大概纪录一下. 1.首先查看ruby是否是最新版的. ruby是通过rvm安装的所以需要先安装rvm后查看ruby是 ...

  5. 最新cocoapods安装流程,安装过程中遇到的问题及解决方法

    最近重新安装了一次cocoapods,参考的安装流程:http://blog.csdn.net/showhilllee/article/details/38398119/ 但是现在的cocoapods ...

  6. [android]android下apk的安装过程

    /********************2016年4月23日更新********************************/ 知乎:有什么apk分析工具? 拿到了一个apk文件,怀疑不安全,在 ...

  7. sharepoint环境安装过程中几点需要注意的地方

    写在前面 上篇文章也说明了,在安装sharepoint环境的时候,确实吃了不少苦头,这里纪录一下安装过程中遇到的几个问题. 安装环境 windows server 2012 r2 standard x ...

  8. spark 安装配置

    最佳参考链接 https://opensourceteam.gitbooks.io/bigdata/content/spark/install/spark-160-bin-hadoop26an_zhu ...

  9. [转] Spark快速入门指南 – Spark安装与基础使用

    [From] https://blog.csdn.net/w405722907/article/details/77943331 Spark快速入门指南 – Spark安装与基础使用 2017年09月 ...

随机推荐

  1. tf.nn.conv_2d

    tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 结果返回一个Tensor,这个输出,就是 ...

  2. Linux下安装python3及相关包

    Python3: sudo apt-get install python3 终端中输入python则进入python2,输入python3则进入python3 安装python2的相关包: sudo ...

  3. delphi2010 域名转换IP

    uses winsock; function GetHostIp_wwwdelphitopcom(HostName: string): string; type   tAddr = array[0.. ...

  4. Android APP打包错误,Could not resolve com.android.tools.lint:lint-gradle:26.1.2.

    1.Please select the product flavors to build and sign 不专业的翻译一下(请选择产品的味道来制作和签名)什么鬼: 选中Flavors中的选项即可: ...

  5. Python并发编程一(多进程)

    1.背景知识(进程.多道技术) 顾名思义,进程即正在执行的一个过程.进程是对正在运行程序的一个抽象. 进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最重要的抽象概念之一 ...

  6. uiautomator 代码记录 : BT发送测试

    package rom; import java.lang.*; import java.util.Random; import java.io.File; import com.android.ui ...

  7. fabric-ca1.03安装

    前面的文档已经成功的安装了fabric1.0.1的e2e例子.之后代码换成1.0.3版本按步骤重新安装一下,就可以切换到1.0.3了.1.0.3的脚本和启动命令没有变化,还是用的1.0.1的. 1.准 ...

  8. IntelliJ IDEA 添加junit插件

    一.使用idea做junit测试需要添加junit插件 1.安装插件 File-->settings-->Plguins-->Browse repositories-->输入J ...

  9. putty使用秘钥对登录百度云系统全过程

    使用秘钥对登录百度云系统全过程 1在百度云生成秘钥对 并且绑定要登录的IP 1)创建 2) 创建成功后,会自动下载私钥到本地 3)绑定 4)绑定完毕 2把下载到本地的私钥使用putty key gen ...

  10. 5.分析mitmproxy的优势及工具mitmdump的使用(参照书籍)

    mitmproxy优势:功能和charles.fiddler相似,强大之处在于它的工具 mitmdump 可以直接对接python 对请求做处理. mitmdump使用 : 1.mitmdump是mi ...