软件版本号例如以下:

Hostname

IP

Hadoop版本号

Hadoop

功能

系统

master

192.168.119.128

1.1.2

namenode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

slave1

192.168.119.129

1.1.2

datanode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

slave2

192.168.119.130

1.1.2

datanode

jdk1.6+hadoop+scala2.9.3+spark1.0.0

centos4.9

1 首先搭建hadoop环境,这里不具体说,网上非常多。

2 然后安装scala环境,非常easy和配置jdk类似

2.1  下载scala 安装包 2.9.3

http://www.scala-lang.org/download/2.9.3.html#Software_Requirements

2.2 下载的 scala-2.9.3.tgz ftp 到master机

文件夹为  /home/bigdata/

2.3  进入文件夹  /home/bigdata/

tar -zxf scala-2.9.3.tgz

mv  scala-2.9.3  scala

/home/bigdata/scala   (配置文件夹)

2.4 配置环境变量(分别到3台机器配置)

vi  /etc/profile

export SCALA_HOME=/home/bigdata/scala

export PATH=$PATH:$SCALA_HOME/bin

source /etc/profile

2.5 检測是否配置成功

scala -version

Scala code runner version 2.9.3 -- Copyright 2002-2011, LAMP/EPFL

表示成功安装

2.6  远程拷贝到其他机:(结构文件夹和master一致)

scp -r  /home/bigdata/scala  root@192.168.119.129:/home/bigdata/

scp -r  /home/bigdata/scala  root@192.168.119.130:/home/bigdata/

3 配置spark

3. 1 下载spark 1.0.0   http://spark.apache.org/downloads.html

3.2  复制包到 spark-1.0.0-bin-hadoop1.tgz 中

文件夹为:/home/bigdata/

3.3  进入文件夹 /home/bigdata/

tar -zxf spark-1.0.0-bin-hadoop1.tgz

mv  spark-1.0.0-bin-hadoop1  spark-hadoop1

得到  /home/bigdata/spark-hadoop1 (配置路径)

3.4   配置用户环境变量 (分别配置3台机器)

vi  ~/.bash_profile

export SPARK_HOME=/home/bigdata/spark-hadoop1

export PATH=$PATH:$SPARK_HOME/bin

source ~/.bash_profile

3.5 在conf 中设置scala

cd  /home/bigdata/spark-hadoop1/conf

cp spark-env.sh.template spark-env.sh

vi  spark-env.sh

加入

export JAVA_HOME=/home/bigdata/jdk(Jdk安装路径)

export SCALA_HOME=/home/bigdata/scala(scala 安装路径)

3.6 拷贝到其他机器

scp -r /home/bigdata/spark-hadoop1 root@slave1:/home/bigdata/

scp -r /home/bigdata/spark-hadoop1 root@slave2:/home/bigdata/

4 启动hadoop集群

5 启动spark 集群

在master 机进入文件夹 /home/bigdata/spark-hadoop1/sbin

sh start-all.sh

jps

5704 DataNode

6021 TaskTracker

5587 NameNode

5898 JobTracker

5810 SecondaryNameNode

6374 Worker

6457 Jps

6239 Master

6 启动web訪问页面  http://master:8080/

进入 /home/bigdatat//spark-hadoop1/bin/     spark-shell

參考:点击打开链接

Spark1.0.0 分布式环境搭建的更多相关文章

  1. Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程

    一.修改hosts文件 在主节点,就是第一台主机的命令行下; vim /etc/hosts 我的是三台云主机: 在原文件的基础上加上; ip1 master worker0 namenode ip2 ...

  2. Hadoop2.5.0伪分布式环境搭建

    本章主要介绍下在Linux系统下的Hadoop2.5.0伪分布式环境搭建步骤.首先要搭建Hadoop伪分布式环境,需要完成一些前置依赖工作,包括创建用户.安装JDK.关闭防火墙等. 一.创建hadoo ...

  3. hive-2.2.0 伪分布式环境搭建

    一,实验环境: 1, ubuntu server 16.04 2, jdk,1.8 3, hadoop 2.7.4 伪分布式环境或者集群模式 4, apache-hive-2.2.0-bin.tar. ...

  4. Spark2.4.0伪分布式环境搭建

    一.搭建环境的前提条件 环境:ubuntu-16.04 hadoop-2.6.0  jdk1.8.0_161. spark-2.4.0-bin-hadoop2.6.这里的环境不一定需要和我一样,基本版 ...

  5. 在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

    近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop ...

  6. Hadoop学习笔记(3)——分布式环境搭建

    Hadoop学习笔记(3) ——分布式环境搭建 前面,我们已经在单机上把Hadoop运行起来了,但我们知道Hadoop支持分布式的,而它的优点就是在分布上突出的,所以我们得搭个环境模拟一下. 在这里, ...

  7. Hadoop-04-HBase全然分布式环境搭建

    Hbase分布式具体安装步骤 Hadoop全然分布式环境已经搭建完毕(參见01_Hadoop全然分布式环境搭建). 注意:Hbase和Hadoop的版本号必须相应! 不然会出现各种问题! 这里选用的是 ...

  8. Hadoop-2.4.1完全分布式环境搭建

      Hadoop-2.4.1完全分布式环境搭建   Hadoop-2.4.1完全分布式环境搭建 一.配置步骤如下: 主机环境搭建,这里是使用了5台虚拟机,在ubuntu 13系统上进行搭建hadoop ...

  9. 【转】Hadoop HDFS分布式环境搭建

    原文地址  http://blog.sina.com.cn/s/blog_7060fb5a0101cson.html Hadoop HDFS分布式环境搭建 最近选择给大家介绍Hadoop HDFS系统 ...

  10. 【Hadoop】伪分布式环境搭建、验证

    Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares ...

随机推荐

  1. 跟我一起学extjs5(17--Grid金额字段单位MVVM方式的选择)

    跟我一起学extjs5(17--Grid金额字段单位MVVM方式的选择)         这一节来完毕Grid中的金额字段的金额单位的转换.转换旰使用MVVM特性,整体上和控制菜单的几种模式类似.首先 ...

  2. Microsoft Dynamics CRM 2016 增强版的解决方案(CRM新特性,开发者的福利)

    CRM在以前的版本中,如果你改变了一个字段(组织A)然后打算导入到其他组织(组织B),你必须创建一个解决方案,包括完整的实体,并导出导入.然而,如果其他团队成员正在相同的实体做了自定义但不想让这些变化 ...

  3. python-登录-注册-修改密码

    该脚本实现了,登录,注册,修改密码功能. #!/usr/bin/env python # -*- coding:utf-8 -*- #pangguoping import os def login(u ...

  4. FineUI页面布局

    使用布局的优势 相对于为控件设置固定的宽度和高度,布局的重要意义在于子控件可以根据父控件的尺寸自动设置自己的尺寸,在页面尺寸改变时同样有效.如果你在项目中遇到类似如下的需求,就需要考虑布局了: 面板填 ...

  5. 《APUE》读书笔记第十一章-线程

    本章主要介绍了线程,了解如何使用多线程在单进程环境中来执行多任务.由于多个线程共享其进程空间,所以必须采用同步的机制来保护数据的一致性. 一.线程的概念 典型的Unix系统都可以看成只有一个控制线程, ...

  6. No2_2.接口继承多态_Java学习笔记_继承

    ***类的继承***1.继承的实现extends2.[修饰符] class 子类名 extends 父类名{}3.修饰符一般为:public abstract final4.重写是指父子类之间的关系, ...

  7. struts.custom.i18n.resources国际化详解(一)

    每种框价都会有国际化的支持,struts2的国际化大致上分为页面的国际化,Action的国际化以及xml的国际化 首先在struts.properties文件中加入以下内容:struts.custom ...

  8. 微信分享jssdk config:invalid signature 签名错误

    使用微信分享时,按照官方给的demo,使用时一直提示签名错误. 根据微信开发文档(http://mp.weixin.qq.com/wiki/7/aaa137b55fb2e0456bf8dd9148dd ...

  9. 使apache解析域名到目录的方法

    apache如何将一个域名自动定位到目录 有两种解决办法 首先,你的拥有一个有泛域名解析的顶级域名,例如: domain.com其次,在 httpd.conf 中打开 mod_rewrite之后,在 ...

  10. 安装python3.4

    1.http://www.python.org下载适合自己机型的镜像文件 2.一路“next”到底,安装python到C盘上 3.计算机-属性-高级系统设置-环境变量,将刚刚安装的python路径添加 ...