软件版本号例如以下:

Hostname

IP

Hadoop版本号

Hadoop

功能

系统

master

192.168.119.128

1.1.2

namenode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

slave1

192.168.119.129

1.1.2

datanode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

slave2

192.168.119.130

1.1.2

datanode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

1 首先搭建hadoop环境,这里不具体说,网上非常多。

2 然后安装scala环境,非常easy和配置jdk类似

2.1  下载scala 安装包 2.9.3

http://www.scala-lang.org/download/2.9.3.html#Software_Requirements

2.2 下载的 scala-2.9.3.tgz ftp 到master机

文件夹为  /home/bigdata/

2.3  进入文件夹  /home/bigdata/

tar -zxf scala-2.9.3.tgz

mv  scala-2.9.3  scala

/home/bigdata/scala   (配置文件夹)

2.4 配置环境变量(分别到3台机器配置)

vi  /etc/profile

export SCALA_HOME=/home/bigdata/scala

export PATH=$PATH:$SCALA_HOME/bin

source /etc/profile

2.5 检測是否配置成功

scala -version

Scala code runner version 2.9.3 -- Copyright 2002-2011, LAMP/EPFL

表示成功安装

2.6  远程拷贝到其他机:(结构文件夹和master一致)

scp -r  /home/bigdata/scala  root@192.168.119.129:/home/bigdata/

scp -r  /home/bigdata/scala  root@192.168.119.130:/home/bigdata/

3 配置spark

3. 1 下载spark 1.0.0   http://spark.apache.org/downloads.html

3.2  复制包到 spark-1.0.0-bin-hadoop1.tgz 中

文件夹为:/home/bigdata/

3.3  进入文件夹 /home/bigdata/

tar -zxf spark-1.0.0-bin-hadoop1.tgz

mv  spark-1.0.0-bin-hadoop1  spark-hadoop1

得到  /home/bigdata/spark-hadoop1 (配置路径)

3.4   配置用户环境变量 (分别配置3台机器)

vi  ~/.bash_profile

export SPARK_HOME=/home/bigdata/spark-hadoop1

export PATH=$PATH:$SPARK_HOME/bin

source ~/.bash_profile

3.5 在conf 中设置scala

cd  /home/bigdata/spark-hadoop1/conf

cp spark-env.sh.template spark-env.sh

vi  spark-env.sh

加入

export JAVA_HOME=/home/bigdata/jdk(Jdk安装路径)

export SCALA_HOME=/home/bigdata/scala(scala 安装路径)

3.6 拷贝到其他机器

scp -r /home/bigdata/spark-hadoop1 root@slave1:/home/bigdata/

scp -r /home/bigdata/spark-hadoop1 root@slave2:/home/bigdata/

4 启动hadoop集群

5 启动spark 集群

在master 机进入文件夹 /home/bigdata/spark-hadoop1/sbin

sh start-all.sh

jps

5704 DataNode

6021 TaskTracker

5587 NameNode

5898 JobTracker

5810 SecondaryNameNode

6374 Worker

6457 Jps

6239 Master

6 启动web訪问页面  http://master:8080/

进入 /home/bigdatat//spark-hadoop1/bin/     spark-shell

參考:点击打开链接

Spark1.0.0 分布式环境搭建的更多相关文章

  1. Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程

    一.修改hosts文件 在主节点,就是第一台主机的命令行下; vim /etc/hosts 我的是三台云主机: 在原文件的基础上加上; ip1 master worker0 namenode ip2 ...

  2. Hadoop2.5.0伪分布式环境搭建

    本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...

  3. hive-2.2.0 伪分布式环境搭建

    一,实验环境: 1, ubuntu server 16.04 2, jdk,1.8 3, hadoop 2.7.4 伪分布式环境或者集群模式 4, apache-hive-2.2.0-bin.tar. ...

  4. Spark2.4.0伪分布式环境搭建

    一.搭建环境的前提条件 环境:ubuntu-16.04 hadoop-2.6.0  jdk1.8.0_161. spark-2.4.0-bin-hadoop2.6.这里的环境不一定需要和我一样,基本版 ...

  5. 在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

    近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop ...

  6. Hadoop学习笔记(3)——分布式环境搭建

    Hadoop学习笔记(3) ——分布式环境搭建 前面,我们已经在单机上把Hadoop运行起来了,但我们知道Hadoop支持分布式的,而它的优点就是在分布上突出的,所以我们得搭个环境模拟一下. 在这里, ...

  7. Hadoop-04-HBase全然分布式环境搭建

    Hbase分布式具体安装步骤 Hadoop全然分布式环境已经搭建完毕(參见01_Hadoop全然分布式环境搭建). 注意:Hbase和Hadoop的版本号必须相应! 不然会出现各种问题! 这里选用的是 ...

  8. Hadoop-2.4.1完全分布式环境搭建

      Hadoop-2.4.1完全分布式环境搭建   Hadoop-2.4.1完全分布式环境搭建 一.配置步骤如下: 主机环境搭建,这里是使用了5台虚拟机,在ubuntu 13系统上进行搭建hadoop ...

  9. 【转】Hadoop HDFS分布式环境搭建

    原文地址  http://blog.sina.com.cn/s/blog_7060fb5a0101cson.html Hadoop HDFS分布式环境搭建 最近选择给大家介绍Hadoop HDFS系统 ...

  10. 【Hadoop】伪分布式环境搭建、验证

    Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares ...

随机推荐

  1. PL/SQL中字符串变量的分割转化

    在编写PL/SQL时,有时候我们需要处理这样一个输入的变量,它的格式是由多个值通过分隔符组成的字符串,如“1,2,3”,我们需要将这个变量加入到我们的SQL中,形成诸如in('1','2','3')的 ...

  2. Oracle函数function

    --function /* 函数是有返回值.-只能有一个返回值. 语法 Create or replace func1(参数) Return varchar2 As Pl/sql块 Return 'J ...

  3. exc_bad_access(code=1, address=0x789870)野指针错误

    原因: exc_bad_access(code=1, address=0x789870)野指针错误,主要的原因是,当某个对象被完全释放,也就是retainCount,引用计数为0后.再去通过该对象去调 ...

  4. IOC设计模式初步了解(day02)

    IOC(Inversion of Control):控制反转. *其他解释:依赖注入.依赖反转…… 设计目标:简化JEE的研发工作,提供IOC容器,控制bean的生成.注入,解耦. 看了网上的一些帖子 ...

  5. HDU 4620 Fruit Ninja Extreme(2013多校第二场 剪枝搜索)

    这题官方结题报告一直在强调不难,只要注意剪枝就行. 这题剪枝就是生命....没有最优化剪枝就跪了:如果当前连续切割数加上剩余的所有切割数没有现存的最优解多的话,不需要继续搜索了 #include &l ...

  6. 如何debug android cts

    启动和关闭ADB服务(adb start-server和adbkill-server) 经作者测试,模拟器在运行一段时间后,adb服务有可能(在Windows进程中可以找到这个服务,该服务用来为模拟器 ...

  7. php正则验证手机号码

    protected function checkphone(){ if(preg_match("/^1[34578]\d{9}$/", $phone)){ return false ...

  8. js中几个容易混淆的概念

    1. var name = "The Window";var object = {name : "My Object",getName: function(){ ...

  9. django的model对象转化成dict

    今天发现一个掉渣天的方法,Django的forms包里面有一个方法:model_to_dict(),它可以将一个model对象转化成dict. In [1]: from apps.dormitory. ...

  10. mvc4 基于Area实现插件模块化开发

    对于一个较大规模的Web应用,可以从功能上通过Area将其划分为为较小的单元.每个Area相当于一个独立的子系统,具有一套包含Model.Views和Controller在内 的目录结构和配置文件.一 ...