前提:安装好jdk1.7,hadoop

安装步骤:

1、安装scala

下载地址:http://www.scala-lang.org/download/

配置环境变量:

export SCALA_HOME=/..../scala

export PATH=.:$SCALA_HOME/bin   ....

验证:scala -version

2、安装spark

使用自己编译过的对应自己hadoop的spark

配置环境变量:

export SPARK_HOME=/.../spark

export PATH=.:$SPARK_HOME/bin   ....

修改spark配置文件:

1)$SPARK_HOME/conf/spark-env.sh

export SPARK_MASTER_IP=hadoop000
export SPARK_WORKER_CORES=1     #WorkNode分出几核给spark使用
export SPARK_WORKER_INSTANCES=1  #WorkNode使用几个spark实例,一般一个就行了
export SPARK_WORKER_MEMORY=1G  #WorkNode分出多少内存给spark使用
export SPARK_WORKER_PORT=8888     #指定spark运行时的端口号

2)$SPARK_HOME/conf/slave.sh

配置worknode节点hostname,一行配置一个

3)$SPARK_HOME/conf/spark-defaults.conf    (可选配置)

参数配置参见:http://spark.apache.org/docs/latest/configuration.html

spark.master spark://hadoop000:7077
spark.local.dir /home/spark/spark_shuffle/ #配置spark shuffle数据存放路径
spark.executor.memory 1g

3、启动spark

$SPARK_HOME下的sbin和bin说明:
sbin:存放的是启动和停止spark集群等的命令;
bin:存放的是应用程序(spark-shell)启动和停止等的命令。

启动spark集群(sbin目录下):start-all.sh

启动后浏览器访问:http://hadoop000:8080/

注:hadoop000为hostname,配置的属性可以在4040端口查看到,形如:http://hadoop000:4040/environment/

启动spark-shell(bin目录下):

1)单机启动方式:spark-shell

2)集群启动方式:

spark-shell --master spark://hadoop000:7077

默认情况下Application的Memory是512M,申请所有的CPU资源;

指定executor的memory和cpu core数:spark-shell --master spark://hadoop000:7077 --executor-memory 2g --total-executor-cores 1

注意:executor-memory是每个executor占用的,而executor-cores是所有executor一共占用

具体参数配置的来源:SparkSubmit.scala中的options属性

为了启动方便起见,可以将master配置到spark-defaults.conf中

spark.master spark://hadoop000:7077

再启动spark-shell时,只需要: spark-shell

如果要指定参数,则使用:spark-shell --executor-memory 2g --total-executor-cores 1 

详细信息参见官方文档:http://spark.apache.org/docs/latest/spark-standalone.html#installing-spark-standalone-to-a-cluster

 

Spark Standalone模式伪分布式环境搭建的更多相关文章

  1. hive-2.2.0 伪分布式环境搭建

    一,实验环境: 1, ubuntu server 16.04 2, jdk,1.8 3, hadoop 2.7.4 伪分布式环境或者集群模式 4, apache-hive-2.2.0-bin.tar. ...

  2. Hadoop学习笔记1:伪分布式环境搭建

    在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下: 1.CentOS 6.7下安装JDK , 地址: http://blog.csdn.net/yule ...

  3. Hadoop2.5.0伪分布式环境搭建

    本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...

  4. 【Hadoop】伪分布式环境搭建、验证

    Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares ...

  5. 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)

    所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...

  6. 【Hadoop离线基础总结】CDH版本Hadoop 伪分布式环境搭建

    CDH版本Hadoop 伪分布式环境搭建 服务规划 步骤 第一步:上传压缩包并解压 cd /export/softwares/ tar -zxvf hadoop-2.6.0-cdh5.14.0.tar ...

  7. CentOS7下Hadoop伪分布式环境搭建

    CentOS7下Hadoop伪分布式环境搭建 前期准备 1.配置hostname(可选,了解) 在CentOS中,有三种定义的主机名:静态的(static),瞬态的(transient),和灵活的(p ...

  8. HDFS 伪分布式环境搭建

    HDFS 伪分布式环境搭建 作者:Grey 原文地址: 博客园:HDFS 伪分布式环境搭建 CSDN:HDFS 伪分布式环境搭建 相关软件版本 Hadoop 2.6.5 CentOS 7 Oracle ...

  9. Spark2.4.0伪分布式环境搭建

    一.搭建环境的前提条件 环境:ubuntu-16.04 hadoop-2.6.0  jdk1.8.0_161. spark-2.4.0-bin-hadoop2.6.这里的环境不一定需要和我一样,基本版 ...

随机推荐

  1. 转:在ElasticSearch之下(图解搜索的故事)

    ElasticSearch 2 (9) - 在ElasticSearch之下(图解搜索的故事) 摘要 先自上而下,后自底向上的介绍ElasticSearch的底层工作原理,试图回答以下问题: 为什么我 ...

  2. 【solr】 solr 5.4.1 和tomcat 基础环境搭建

    下载省略; solr下载地址:http://www.apache.org/dyn/closer.cgi/lucene/solr/ tomcat 下载安装(省略). solr5.4.1 默认在jetty ...

  3. openstack(liberty):部署实验平台(二,简单版本软件安装 part1)

    软件安装过程中,考虑到现在是一个实验环境,且也考虑到规模不大,还有,网络压力不会大,出于简单考虑,将各个节点的拓扑结构改了一下,主要体现在网络节点和控制节点并在了一起.在一个服务器上安装! 到目前位置 ...

  4. Jar mismatch! Fix your dependencies的问题

    在开发Android项目的时候,有时需要引用多个项目作为library.在引用项目的时候,有时会出现“Jar mismatch! Fix your dependencies”错误. 这是因为两个项目的 ...

  5. C#本地时间和GMT(UTC)时间的转换

    /// <summary> /// 本地时间转成GMT时间 /// </summary> 4 public static string ToGMTString(DateTime ...

  6. SSL使用windows证书库中证书实现双向认证

    前一段时间对OpenSSL库中的SSL通讯稍微琢磨了一下,在百度文库中找了个示例程序,然后在机器上跑,哇塞,运行成功!那时那个惊喜啊,SSL蛮简单的嘛.前几天,老板要我整一个SSL通讯,要使用wind ...

  7. 【jmeter】逻辑控制器

    JMeter中的Logic Controller用于为Test Plan中的节点添加逻辑控制器. JMeter中的Logic Controller分为两类:一类用来控制Test Plan执行过程中节点 ...

  8. (转)手机端html5触屏事件(touch事件)

    本文转载自:http://blog.sina.com.cn/s/blog_51048da70101f0ex.html touchstart:触摸开始的时候触发 touchmove:手指在屏幕上滑动的时 ...

  9. Nexus私服使Maven更加强大

    前边简单介绍了Maven,而Maven默认提供的中央仓库是在远程网络服务Appache提供的,这对于我们开发时不合理的.如果我们没网了或者什么情况,我们怎么办?也就是说我们队中央仓库的依赖性太大.而N ...

  10. Python 共享和上传函数模块到PyPI

    1. register account by brower on https://pypi.python.org/pypi/ 2. register your moudle "nester& ...