1.  配置节点bonnie1 hadoop环境

 (1) 下载hadoop- 2.6.0 并解压缩

[root@bonnie1 ~]# wget http://apache.fayea.com/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz -C /usr/local

[root@bonnie1 ~]# cd /usr/local/

[root@bonnie1 local]# tar -xvf hadoop-2.6.0.tar

    (2) 配置环境变量

[root@bonnie1 local]# vi /etc/profile

export JAVA_HOME=/usr/local/jdk1.7.0_79

export HADOOP_HOME=/usr/local/hadoop-2.6.0

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_YARN_HOME=$HADOOP_HOME

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

[root@bonnie1 local]# cd hadoop-2.6.0/etc/hadoop/

[root@bonnie1 hadoop]# vi hadoop-env.sh

# 追加如下字段

export JAVA_HOME=/usr/local/jdk1.7.0_79

export HADOOP_PREFIX=/usr/local/hadoop-2.6.0

[root@bonnie1 hadoop]# vi core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://ns1</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop-2.6.0/tmp</value>

</property>

<property>

<name>ha.zookeeper.quorum</name>

<value>bonnie1:2181,bonnie2:2181,bonnie3:2181</value>

</property>

</configuration>

[root@bonnie1 hadoop]# vi hdfs-site.xml

<configuration>

<property>

<name>dfs.nameservices</name>

<value>ns1</value>

</property>

<property>

<name>dfs.ha.namenodes.ns1</name>

<value>nn1,nn2</value>

</property>

<property>

<name>dfs.namenode.rpc-address.ns1.nn1</name>

<value>bonnie1:9000</value>

</property>

<property>

<name>dfs.namenode.http-address.ns1.nn1</name>

<value>bonnie1:50070</value>

</property>

<property>

<name>dfs.namenode.rpc-address.ns1.nn2</name>

<value>bonnie2:9000</value>

</property>

<property>

<name>dfs.namenode.http-address.ns1.nn2</name>

<value>bonnie2:50070</value>

</property>

<property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://bonnie1:8485;bonnie2:8485;bonnie3:8485/ns1</value>

</property>

<property>

<name>dfs.journalnode.edits.dir</name>

<value>/usr/local/hadoop-2.6.0/journal</value>

</property>

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.client.failover.proxy.provider.ns1</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

<name>dfs.ha.fencing.methods</name>

<value>

sshfence

shell(/bin/true)

</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name>

<value>/root/.ssh/id_rsa</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.connect-timeout</name>

<value>30000</value>

</property>

</configuration>

[root@bonnie1 hadoop]# vi mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

[root@bonnie1 hadoop]# vi yarn-site.xml 

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>bonnie3</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

[root@bonnie1 hadoop]# vi slaves

bonnie1

bonnie2

bonnie3

2. 将配置好的hadoop文件拷贝到其他几个节点

[root@bonnie1 hadoop]# cd /usr/local

[root@bonnie1 local]# scp -r hadoop-2.6.0 bonnie2:/usr/local/

3. 集群初始化

(1) #启动 zookeeper ,zookeeper 安装见上一篇  zookeeper 安装与配置

[root@bonnie1 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/

[root@bonnie1 bin]# ./zkServer.sh start

[root@bonnie2 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/

[root@bonnie2 bin]# ./zkServer.sh start

[root@bonnie3 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/

[root@bonnie3 bin]# ./zkServer.sh start

# 查看 zookeeper 状态

[root@bonnie1 bin]# ./zkServer.sh status

[root@bonnie2 bin]# ./zkServer.sh status 

[root@bonnie3 bin]# ./zkServer.sh status

一个leader,两个follower

(2) 启动journalnode

* 分别在bonnie1、bonnie2、bonnie3上执行启动命令

[root@bonnie1 ~]# cd /usr/local/hadoop-2.6.0/sbin

[root@bonnie1 sbin]# ./hadoop-daemon.sh start journalnode

[root@bonnie2 sbin]# ./hadoop-daemon.sh start journalnode

[root@bonnie3 sbin]# ./hadoop-daemon.sh start journalnode

* 运行jps命令检验是否存在启动进程JournalNode

[root@bonnie1 sbin]# jps

5335 JournalNode

7303 Jps

3124 QuorumPeerMain

(3) 格式化HDFS

* 在节点bonnie1上执行格式化命令

[root@bonnie3 sbin]# hdfs namenode -format

# 出现如下日志表示成功

16/12/04 14:19:38 INFO common.Storage: Storage directory /usr/local/hadoop-2.6.0/tmp/dfs/name has been successfully formatted.

HA两节点保持同步,将invin01上的tmp目录拷贝到invin02节点

格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/usr/local/hadoop-2.6.0/tmp,然后将/usr/local/hadoop-2.6.0/tmp拷贝到bonnie2的/usr/local/hadoop-2.6.0/下

[root@bonnie1 hadoop-2.6.0]# scp -r tmp/ bonnie2:/usr/local/hadoop-2.6.0/

(4) 格式化ZK

[root@bonnie1 hadoop-2.6.0]# hdfs zkfc -formatZK

出现如下日志表示成功

16/12/04 14:20:48 INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/ns1 in ZK.

 

4. 启动集群

(1) jps (kill -9 [进程号])关闭(除QuorumPeerMain)所有进程

(2) 启动HDFS(在bonnie1上执行)

sbin/start-dfs.sh

(3) 启动YARN(在bonnie3上执行)

sbin/start-yarn.sh

5. hadoop-2.6.0集群配置完毕,通过浏览器访问验证

http://10.211.55.21:50070

NameNode 'bonnie1:9000' (active)

http://10.211.55.22:50070

NameNode 'bonnie2:9000' (standby)

http://10.211.55.23:8088

  6. HDFS测试-上传下载文件

hadoop fs -mkdir /tmp/input                     #在HDFS上新建文件夹

hadoop fs -put input1.txt /tmp/input           #把本地文件input1.txt传到HDFS的/tmp/input目录

hadoop fs -get  input1.txt /tmp/input/input1.txt   #把HDFS文件拉到本地

hadoop fs -ls /tmp/output                        #列出HDFS的某目录

hadoop fs -cat /tmp/ouput/output1.txt          #查看HDFS上的文件

hadoop fs -rm -r /home/less/hadoop/tmp/output     #删除HDFS上的目录

 

# 查看HDFS状态,比如有哪些datanode,每个datanode的情况

hadoop dfsadmin -report 

 

hadoop dfsadmin -safemode leave  # 离开安全模式

hadoop dfsadmin -safemode enter  # 进入安全模式

  7. YARN测试-WordCount

vi test.csv

hello tomcat

help yumily

cat bonnie

上传测试数据文件

hadoop fs -put test.csv /

运行wordcount

cd hadoop-2.6.0/share/hadoop/mapreduce/

hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /test.csv /out

8. Hadoop启动与关闭流程

(1) 启动流程

分别在bonnie1,bonnie2,bonnie3上执行启动命令

[root@bonnie1 ~]# cd /usr/local/zookeeper-3.4.6/bin/

[root@bonnie1 bin]# ./zkServer.sh start

(2) 查看各ZK节点状态

[root@bonnie1 bin]# ./zkServer.sh status

一个leader,两个follower

(3) 启动HDFS(在invin01上执行)

[root@bonnie1 hadoop-2.6.0]# sbin/start-dfs.sh

(4) 启动YARN

[root@bonnie1 hadoop-2.6.0]# sbin/start-yarn.sh

9 关闭流程

  (1)关闭HDFS(在invin01上执行)

[root@bonnie1 hadoop-2.6.0]#sbin/stop-dfs.sh

(2)关闭YARN(在invin03上执行)

[root@bonnie1 hadoop-2.6.0]# sbin/stop-yarn.sh

(3)关闭ZK(在invin04,invin05,invin06上执行)

[root@bonnie1 hadoop-2.6.0]# cd /home/hduser/zookeeper-3.4.6/bin/

[root@bonnie1 bin]# ./zkServer.sh stop

Hadoop-2.6.0 集群的 安装与配置的更多相关文章

  1. hadoop 2.2.0集群安装详细步骤(简单配置,无HA)

    安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...

  2. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

  3. hadoop 2.2.0 集群部署 坑

    注意fs.defaultFS为2..0新的变量,代替旧的:fs.default.name hadoop 2.2.0 集群启动命令:bin/hdfs namenode -formatsbin/start ...

  4. ZooKeeper 集群的安装、配置---Dubbo 注册中心

    ZooKeeper 集群的安装.配置.高可用测试 Dubbo 注册中心集群 Zookeeper-3.4.6 Dubbo 建议使用 Zookeeper 作为服务的注册中心. Zookeeper 集群中只 ...

  5. Dubbo入门到精通学习笔记(十四):ActiveMQ集群的安装、配置、高可用测试,ActiveMQ高可用+负载均衡集群的安装、配置、高可用测试

    文章目录 ActiveMQ 高可用集群安装.配置.高可用测试( ZooKeeper + LevelDB) ActiveMQ高可用+负载均衡集群的安装.配置.高可用测试 准备 正式开始 ActiveMQ ...

  6. Dubbo入门到精通学习笔记(十三):ZooKeeper集群的安装、配置、高可用测试、升级、迁移

    文章目录 ZooKeeper集群的安装.配置.高可用测试 ZooKeeper 与 Dubbo 服务集群架构图 1. 修改操作系统的/etc/hosts 文件,添加 IP 与主机名映射: 2. 下载或上 ...

  7. hadoop 2.2.0集群安装

    相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...

  8. 在Hadoop-2.2.0集群上安装 Hive-0.13.1 with MySQL

    fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3872872.html 软件环境 操作系统:Ubuntu14.04 JDK版本:jdk1 ...

  9. 大数据高可用集群环境安装与配置(06)——安装Hadoop高可用集群

    下载Hadoop安装包 登录 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 镜像站,找到我们要安装的版本,点击进去复制下载链接 ...

随机推荐

  1. 转 SVN 在vs中的使用

    给大家介绍一些SVN的入门知识!希望对大家的学习起到作用!      关于SVN与CVS的相关知识,大家可以自己去google一下.      一.准备         SVN是一个开源的版本控制系统 ...

  2. python学习笔记-Day6(1)

    shelve模块是一个简单的k,v将内存数据通过文件持久化的模块,可以持久化任何pickle可支持的python数据格式 >>> s=shelve.open('test') > ...

  3. iOS.ReactNative-4-react-native-command-line-tool

    Command line tool: react-native 1. react-native 是一个命令行工具 1.1 react-native简介 运行以下命令: ls -lt `which re ...

  4. 数据字典和动态性能视图<五>

    数据字典和动态性能视图 介绍:数据字典是什么 数据字典是 oracle 数据库中最重要的组成部分,它提供了数据库的一些系统信息. 动态性能视图记载了例程启动后的相关信息.  数据字典 数据字典记录了 ...

  5. php 消息实时推送(反ajax推送)

    入口文件index.html <!DOCTYPE HTML> <html> <head> <title>反ajax推送</title> &l ...

  6. 利用Apache Ant编译Hadoop2.6.0-eclipse-plugin

    环境要求:系统不重要,重要的是要有Ant环境,这里不做赘述,自行百度配置去. 1)在github上下载Hadoop-eclipse-plugin-master的zip包,下载地址. 2)在Hadoop ...

  7. c# 验证码类

    using System; using System.Drawing; using System.Drawing.Drawing2D; using System.Drawing.Imaging; us ...

  8. cmd

    ExecuteNonQuery  返回影响的行数 ExecuteScalar       返回第一行第一列

  9. Win7启动修复(Ubuntu删除后进入grub rescue的情况)

    起因:装了win7,然后在另一个分区里装了Ubuntu.后来格掉了Ubuntu所在的分区.系统启动后出现命令窗口:grub rescue:_ 正确的解决方式: 1.光驱插入win7安装盘或者用USB启 ...

  10. vb6 实现奇门遁甲起局排盘、格局分析概要

    为了感谢博客园提供场地写博客,我将在周末有空时候,围绕奇门遁甲,涉及到奇门遁甲学习过程的方方面面的问题,写一些文章展开叙述!