jdk安装

http://www.cnblogs.com/xiaojf/p/6568426.html

scala2.11 安装

http://www.cnblogs.com/xiaojf/p/6568432.html

hadoop2.7 安装

http://www.cnblogs.com/xiaojf/p/6629351.html

开始spark2.1.0安装

解压

[root@m1 jar]# tar zxvf spark-2.1.-bin-hadoop2..tgz -C ../

重命名

[root@m1 jar]# cd ..
[root@m1 soft]# ll
total
drwxr-xr-x. root root Mar : hadoop
drwxr-xr-x. root root Mar : jar
drwxr-xr-x. root root Dec : jdk
drwxr-xr-x. root root Mar : kafka
drwxrwxr-x. root root Mar scala-2.11.
drwxr-xr-x. xiaojf xiaojf Dec : spark-2.1.-bin-hadoop2.
drwxr-xr-x. root root Mar : tmp
drwxr-xr-x. root root Aug zookeeper-3.4.
[root@m1 soft]# mv spark-2.1.-bin-hadoop2. spark
[root@m1 soft]# ll
total
drwxr-xr-x. root root Mar : hadoop
drwxr-xr-x. root root Mar : jar
drwxr-xr-x. root root Dec : jdk
drwxr-xr-x. root root Mar : kafka
drwxrwxr-x. root root Mar scala-2.11.
drwxr-xr-x. xiaojf xiaojf Dec : spark
drwxr-xr-x. root root Mar : tmp
drwxr-xr-x. root root Aug zookeeper-3.4.

配置环境变量

[root@m1 soft]# vi /etc/profile
[root@m1 soft]# source /etc/profile
export SPARK_HOME=/usr/local/soft/spark
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

修改配置文件

[root@m1 soft]# cd /usr/local/soft/spark/conf/
[root@m1 conf]# pwd
/usr/local/soft/spark/conf
[root@m1 conf]# ll
total
-rw-r--r--. xiaojf xiaojf Dec : docker.properties.template
-rw-r--r--. xiaojf xiaojf Dec : fairscheduler.xml.template
-rw-r--r--. xiaojf xiaojf Dec : log4j.properties.template
-rw-r--r--. xiaojf xiaojf Dec : metrics.properties.template
-rw-r--r--. xiaojf xiaojf Dec : slaves.template
-rw-r--r--. xiaojf xiaojf Dec : spark-defaults.conf.template
-rwxr-xr-x. xiaojf xiaojf Dec : spark-env.sh.template
[root@m1 conf]# cp log4j.properties.template log4j.properties
[root@m1 conf]# cp slaves.template slaves
[root@m1 conf]# cp spark-defaults.conf.template spark-defaults.conf
[root@m1 conf]# cp spark-env.sh.template spark-env.sh

修改 spark-defaults.conf

[root@m1 conf]# vi spark-defaults.conf
spark.eventLog.enabled           true
spark.eventLog.dir hdfs://m1:9000/historyserverforSpark
spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
spark.yarn.historyServer.address m1:
spark.history.fs.logDirectory hdfs://m1:9000/historyserverforSpark
spark.driver.memory 5g

修改 spark-env.sh

[root@m1 conf]# vi spark-env.sh
export HADOOP_HOME=/usr/local/soft/hadoop
export HADOOP_CONF_DIR=/usr/local/soft/hadoop/etc/hadoop
export JAVA_HOME=/usr/local/soft/jdk
export SCALA_HOME=/usr/local/soft/scala
export SPARK_MASTER_IP=m1
export SPARK_WORKER_MEMORY=1G
export SPARK_EXECUTOR_MEMORY=1G
export SPARK_DRIVER_MEMORY=1G
export SPARK_WORKER_CORES=

修改 slaves

[root@m1 conf]# vi slaves
s1
s2

分发代码到集群节点

[root@m1 soft]# scp -r spark root@s1:/usr/local/soft/
[root@m1 soft]# scp -r spark root@s2:/usr/local/soft/

启动

[root@m1 soft]# cd /usr/local/soft/spark/sbin/
[root@m1 sbin]# ll
total
-rwxr-xr-x. xiaojf xiaojf Dec : slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-config.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-daemon.sh
-rwxr-xr-x. xiaojf xiaojf Dec : spark-daemons.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-all.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-history-server.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-master.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-mesos-dispatcher.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-mesos-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-slave.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : start-thriftserver.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-all.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-history-server.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-master.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-mesos-dispatcher.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-mesos-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-shuffle-service.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-slave.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-slaves.sh
-rwxr-xr-x. xiaojf xiaojf Dec : stop-thriftserver.sh
[root@m1 sbin]# ./start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.master.Master--m1.out
s1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s1.out
s2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s2.out

查看进程

[root@m1 sbin]# jps
Master
Kafka
Jps
QuorumPeerMain

这个时候还没有启动hadoop,所以先启动hadoop,再启动spark

[root@m1 sbin]# /usr/local/soft/hadoop/sbin/start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [m1]
m1: starting namenode, logging to /usr/local/soft/hadoop/logs/hadoop-root-namenode-m1.out
s2: starting datanode, logging to /usr/local/soft/hadoop/logs/hadoop-root-datanode-s2.out
s1: starting datanode, logging to /usr/local/soft/hadoop/logs/hadoop-root-datanode-s1.out
Starting secondary namenodes [m1]
m1: starting secondarynamenode, logging to /usr/local/soft/hadoop/logs/hadoop-root-secondarynamenode-m1.out
starting yarn daemons
starting resourcemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-resourcemanager-m1.out
s2: starting nodemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-nodemanager-s2.out
s1: starting nodemanager, logging to /usr/local/soft/hadoop/logs/yarn-root-nodemanager-s1.out
[root@m1 sbin]# jps
ResourceManager
Kafka
SecondaryNameNode
NameNode
Jps
QuorumPeerMain
[root@m1 sbin]# /usr/local/soft/spark/sbin/start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.master.Master--m1.out
s2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s2.out
s1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/soft/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker--s1.out
[root@m1 sbin]# jps
ResourceManager
Kafka
SecondaryNameNode
Master
NameNode
Jps
QuorumPeerMain

打开spark-shell 测试

[root@m1 sbin]# spark-shell 

完成

spark 2.1.0 集群安装的更多相关文章

  1. hadoop 2.2.0集群安装详细步骤(简单配置,无HA)

    安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...

  2. CentOS下Hadoop-2.2.0集群安装配置

    对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...

  3. Spark On YARN 分布式集群安装

    一.导读 最近开始学习大数据分析,说到大数据分析,就必须提到Hadoop与Spark.要研究大数据分析,就必须安装这两个软件,特此记录一下安装过程.Hadoop使用V2版本,Hadoop有单机.伪分布 ...

  4. hadoop 2.2.0集群安装

    相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...

  5. ElasticSearch 5.0.0 集群安装部署文档

    1.  搭建环境 3台物理机 操作系统 centos7 es1   192.168.31.141   4g内存   2核 es2   192.168.31.142   4g内存   2核 es3    ...

  6. CentOS下Storm 1.0.0集群安装具体解释

    本文环境例如以下: 操作系统:CentOS 6 32位 ZooKeeper版本号:3.4.8 Storm版本号:1.0.0 JDK版本号:1.8.0_77 32位 python版本号:2.6.6 集群 ...

  7. Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作

    前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...

  8. spark 2.0.0集群安装与hive on spark配置

    1. 环境准备: JDK1.8 hive 2.3.4 hadoop 2.7.3 hbase 1.3.3 scala 2.11.12 mysql5.7 2. 下载spark2.0.0 cd /home/ ...

  9. 最新版spark1.1.0集群安装配置

    和分布式文件系统和NoSQL数据库相比而言,spark集群的安装配置还算是比较简单的: 很多教程提到要安装java和scala,但我发现spark最新版本是包含scala的,JRE采用linux内嵌的 ...

随机推荐

  1. JavaScript 格式化时间

    //格式化 yyyy-MM-dd hh:mm:ss function renderTime(date) { if (date == '' || date == null) { return ''; } ...

  2. add spring-boot-modules to maven project

    spring boot 项目中 多modules parent 冲突 在IDEAJ 中,如果建立多多modules 项目,pom文件应该是这样: <groupId>cn.ifengkou& ...

  3. .Net MVC4笔记之Razor视图引擎的基础语法

    Razor视图引擎的基础语法: 1.“_”开头的cshtml文档将不能在服务器上访问,和asp.net中的config文档差不多. 2.Razor语法以@开头,以@{}进行包裹. 3.语法使用: 注释 ...

  4. C#,VB.NET如何将Word转换为PDF和Text

    众所周知,Word是我们日常工作中常用的办公软件之一,有时出于某种需求我们需要将Word文档转换为PDF以及Text.那么如何以C#,VB.NET编程的方式来实现这一功能呢? 下面我将分开介绍如何运用 ...

  5. HTTP长连接、短连接使用及测试

    概念 HTTP短连接(非持久连接)是指,客户端和服务端进行一次HTTP请求/响应之后,就关闭连接.所以,下一次的HTTP请求/响应操作就需要重新建立连接. HTTP长连接(持久连接)是指,客户端和服务 ...

  6. mysql查询今天、昨天、7天、近30天、本月、上一月 数据

    今天 select * from 表名 where to_days(时间字段名) = to_days(now()); 昨天 SELECT * FROM 表名 WHERE TO_DAYS( NOW( ) ...

  7. android在myeclipse上创建的项目各种报错

    这几天被android弄得头疼死了.差不多把电脑弄了个遍. 先是离线安装ADT,下载ADT,然后配置,但是因为ADT与MyEclipse冲突.所以直接不要再myeclipse下弄Android的环境了 ...

  8. 【算法系列学习三】[kuangbin带你飞]专题二 搜索进阶 之 A-Eight 反向bfs打表和康拓展开

    [kuangbin带你飞]专题二 搜索进阶 之 A-Eight 这是一道经典的八数码问题.首先,简单介绍一下八数码问题: 八数码问题也称为九宫问题.在3×3的棋盘,摆有八个棋子,每个棋子上标有1至8的 ...

  9. 浅谈移动端rem的用法

    一 什么是rem? “font size of the root element 这是w3c的定义 也就是说是相对于根节点(html节点)的字体大小的单位. 目前主流的浏览器基本都支持rem这个单位, ...

  10. eclipse 创建maven模块

    先创建一个聚合模块. 勾选Create a simple project 点击finish . 看到已经创建好了这个聚合. 接下来我们创建子模块.pay-hk  pay-web 两个字模块,前面一个是 ...