本人实际安装经验,目的是为以后高速安装。仅供自己參考。

一、Hadoop

1、操作系统一如既往:①setup关掉防火墙、②vi /etc/sysconfig/selinux,改SELINUX=disabled 。

(3)安装时自己定义不要JAVA。④系统安装后,直接创建用户hadoop,password同username。

2、ssh。①在master上以hadoop用户运行ssh-keygen。

②ssh-copy-id -i ~/.ssh/id_rsa.pub 主机2。③同2,传到其它主机。

这样,仅仅有master能控制其它主机。

3、上传我制作的包括:hadoop,spark,scala,jdk,以及hosts文件、profile文件的压缩文件。用命令scp sparkok.tar.gz 主机2:/home/hadoop ,并 tar -zxvf到当前文件夹 。

4、设置/etc/profile。这里一下在文件最后设置很多变量,方便等下复制到全部的机器,之后要source /etc/profile使之生效。

export JAVA_HOME=/opt/jdk
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/home/hadoop/hadoop2.7
#export HBASE_HOME=/home/hadoop/hbase
#export ZOOKEEPER_HOME=/home/hadoop/zookeeper
export SCALA_HOME=/home/hadoop/scala
export SPARK_HOME=/home/hadoop/spark
#export KAFKA_HOME=/home/hadoop/kafka
#export HIVE_HOME=/home/hadoop/hive
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin

5、改动hadoop參数文件。在当中一台用户文件夹下解压hadoop,结果可如:hadoop2.7 。

hadoop会默认很多參数,假设是单机測试,甚至都不用改动參数。但我们是集群,须要改动几个必需的。默认配置能够查找 **default.xml,找到core-default.xml,hdfs-default.xml,mapred-default.xml,这些就是默认配置,能够參考这些配置的说明和key(网上也有默认:http://hadoop.apache.org/docs)。

以下是尽量少配。

(1)core-site.xml ,2个配置

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
<description>配了这个。以后hdfs-site.xml就不用配data和name文件夹了。连建立都不用</description>
</property> <property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
<description>这个也应该是必须的,并且必须写主机名,连IP都不行</description>
</property>
</configuration>

(2)hdfs-site.xml ,假设server大于3台就不用了

<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
<description>复制几份?默认3。假设大于3台server。就不用了 </description>
</property>
</configuration>

(3)mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<description>The runtime framework for executing MapReduce jobs.
Can be one of local, classic or yarn.默认是local。适合单机
</description>
</property>
</configuration>

(4)yarn-site.xml

<configuration>
<property>
<description>既然选择了yarn,就得填,这个就是曾经的master配置了</description>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
</configuration>

(5)slaves。 每行一个slave主机名。

(6)hadoop-env.sh 和 yarn-env.sh 。其内容尽管看着有JAVA_HOME的配置。但好像不生效。还得再写一遍JAVA_HOME配置。

以上尽管看起来非常多,但实际就是告诉他:数据的存放文件夹(core)。MR要用yarn,yarn的master是谁。如此而已。 把以上文件存起来,以后稍加改动后,就可反复利用了。

5、启动与測试

(1)格式化HDFS:$HADOOP_HOME/bin/hdfs namenode -format

(2)启动集群: $HADOOP_HOME/sbin/start-all.sh

(3)在master和slaver的sbin下运行jps。

(4)hdfs dfs -mkdir /xxx

hdfs dfs -ls /

6、UI訪问

(1)状态:netstat -nap | grep 54310

(2)http://master-ip:8088

NameNode:http://master-ip:50070

JobTracker:http://master-ip:50030

所以。安装简单来说就是:ssh、配JAVA_HOME / HADOOP_HOME等profile參数、配 数据存放文件夹 / MR要用yarn 及 master是谁

我还将上面涉及到的文件打包成文件,可 下载 反复使用。

以上是Hadoop的配置。

二、SPARK 安装

1、下载scala,这个是spark的安装前提条件。解压到每台机器,能够和上面的hadoop一个用户和文件夹。至于profile。上面已经一次性写完了。所以这次都不用写了,好方便吧^_^

2、spark下载并解压,profile也不用重写了。须要改conf文件夹下的配置:

(1)slaves 文件。每行一个IP地址或主机名。

(2)运行 mv spark-env.sh.template spark-env.sh :JAVA_HOME仍然必须填。

export JAVA_HOME=/opt/jdk18
export SCALA_HOME=/home/spark/opt/scala-2.11.4 #这行我没写也行
export SPARK_MASTER_IP=192.168.128.131
export SPARK_WORKER_MEMORY=2g
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

3、然后将此文件复制到各个server上即可了。

4、启动和測试:

(1)和hadoop一样: /sbin/start-all.sh

(2)master:8080

SPARK安装就是:配scala,SPARK_MASTER_IP 。HADOOP_CONF_DIR ,slaves 。

就是这么简单,当然不管哪个,都不要忘了写JAVA_HOME到配置文件。

                                      河南省公安厅:党玉龙

Hadoop Spark 集群简便安装总结的更多相关文章

  1. hadoop+spark 集群的安装

    1.安装连接 https://www.cnblogs.com/zengxiaoliang/p/6478859.html

  2. hadoop+spark集群搭建入门

    忽略元数据末尾 回到原数据开始处 Hadoop+spark集群搭建 说明: 本文档主要讲述hadoop+spark的集群搭建,linux环境是centos,本文档集群搭建使用两个节点作为集群环境:一个 ...

  3. Hadoop教程(五)Hadoop分布式集群部署安装

    Hadoop教程(五)Hadoop分布式集群部署安装 1 Hadoop分布式集群部署安装 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,还有一个处于standby状态 ...

  4. Hadoop记录-Apache hadoop+spark集群部署

    Hadoop+Spark集群部署指南 (多节点文件分发.集群操作建议salt/ansible) 1.集群规划节点名称 主机名 IP地址 操作系统Master centos1 192.168.0.1 C ...

  5. Hadoop+Spark:集群环境搭建

    环境准备: 在虚拟机下,大家三台Linux ubuntu 14.04 server x64 系统(下载地址:http://releases.ubuntu.com/14.04.2/ubuntu-14.0 ...

  6. Spark系列—01 Spark集群的安装

    一.概述 关于Spark是什么.为什么学习Spark等等,在这就不说了,直接看这个:http://spark.apache.org, 我就直接说一下Spark的一些优势: 1.快 与Hadoop的Ma ...

  7. hadoop HA集群的安装

    1.hadoop集群规化 ip 主机名 安装软件 角色 运行进程 10.124.147.22 hadoop1 jdk.zookeeper.hadoop namenode/zookeeper/jobhi ...

  8. Mac OS下搭建Hadoop + Spark集群

    首先注意版本兼容问题!!!本文采用的是Scala 2.11.8 + Hadoop 2.7.5 + Spark 2.2.0 请在下载Spark时务必看清对应的Scala和Hadoop版本! 一.配置JD ...

  9. hadoop+spark集群搭建

    1.选取三台服务器(CentOS系统64位) 114.55.246.88 主节点 114.55.246.77 从节点 114.55.246.93 从节点 之后的操作如果是用普通用户操作的话也必须知道r ...

随机推荐

  1. 我在北京找工作(五):备战阿里巴巴java笔试<1>:筑基

    @@@2013年9月11日 还在北京昌平区@@@ 好几天没有往博客上贴我的面试备战笔记了,今天开始分享一下备战阿里巴巴校招的笔经,当然重点是java方向的题目~. 插一段2014年阿里巴巴校招的消息: ...

  2. QT---系统托盘图标不显示原因

    很久没用QT写UI相关的东西了,有些东西都忘记了,今天竟然忘记了系统托盘图标是怎么显示的了.下面说下解决方法 1.现象, 设置了QSystemTrayIcon的Icon图标,但就是不显示自己设置的图片 ...

  3. JQuery+AJAX实现搜索文本框的输入提示功能

    平时使用谷歌搜索的时候发现只要在文本框里输入部分单词或字母,下面马上会弹出一个相关信息的内容框可供选择.感觉这个功能有较好的用户体验,所以也想在自己的网站上加上这种输入提示框. 实现的原理其实很简单, ...

  4. 百度地图js版定位控件

    一 概述 百度地图在最新版已加入浏览器定位控件,个人认为应该是既高德地图更新了一个浏览器也能定位功能后,百度不甘落后自己简简单单,草草写了个这个功能的定位控件 GeolocationControl 这 ...

  5. Linux Shell常用技巧(二) grep

    七. grep家族:       1.  grep退出状态:    0: 表示成功:    1: 表示在所提供的文件无法找到匹配的pattern:    2: 表示参数中提供的文件不存在.    见如 ...

  6. SINGLETON(单例模式)---(孤独的人)

    很多时候,我们都很彷徨,因为,在身边的朋友,很少. package patterns.createable.singleton; /** * 孤独的人啊 * 我为你写了一个类 * 这个类,在我们的程序 ...

  7. 使用gdb调试游戏服务器

    前言 谈论gdb重要性 一般来说.提gdb,命令用于调试."命令",用户是几乎相同的复杂话.而事实确实如此,实际的开发调试必须用到gdb. 如今.大多数Linux系统是存在于ser ...

  8. 14.4.7 Configuring the Number of Background InnoDB IO Threads 配置 后台InnoDB IO Threads的数量

    14.4.7 Configuring the Number of Background InnoDB IO Threads 配置 后台InnoDB IO Threads的数量 InnoDB 使用bac ...

  9. Lambda高手之路第三部分

    转http://www.cnblogs.com/lazycoding/archive/2013/01/06/2847587.html 背后的秘密-MSIL 通过著名的LINQPad,我们可以更深入的查 ...

  10. Linux下一个简单的日志系统的设计及其C代码实现

    1.概述 在大型软件系统中,为了监测软件运行状况及排查软件故障,一般都会要求软件程序在运行的过程中产生日志文件.在日志文件中存放程序流程中的一些重要信息, 包括:变量名称及其值.消息结构定义.函数返回 ...