Hadoop-2.6.0 集群的 安装与配置
1. 配置节点bonnie1 hadoop环境
(1) 下载hadoop- 2.6.0 并解压缩
[root@bonnie1 ~]# wget http://apache.fayea.com/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz -C /usr/local
[root@bonnie1 ~]# cd /usr/local/
[root@bonnie1 local]# tar -xvf hadoop-2.6.0.tar
(2) 配置环境变量
[root@bonnie1 local]# vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.7.0_79
export HADOOP_HOME=/usr/local/hadoop-2.6.0
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.6
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
[root@bonnie1 local]# cd hadoop-2.6.0/etc/hadoop/
[root@bonnie1 hadoop]# vi hadoop-env.sh
# 追加如下字段
export JAVA_HOME=/usr/local/jdk1.7.0_79
export HADOOP_PREFIX=/usr/local/hadoop-2.6.0
[root@bonnie1 hadoop]# vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://ns1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.6.0/tmp</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>bonnie1:2181,bonnie2:2181,bonnie3:2181</value>
</property>
</configuration>
[root@bonnie1 hadoop]# vi hdfs-site.xml
<configuration>
<property>
<name>dfs.nameservices</name>
<value>ns1</value>
</property>
<property>
<name>dfs.ha.namenodes.ns1</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.ns1.nn1</name>
<value>bonnie1:9000</value>
</property>
<property>
<name>dfs.namenode.http-address.ns1.nn1</name>
<value>bonnie1:50070</value>
</property>
<property>
<name>dfs.namenode.rpc-address.ns1.nn2</name>
<value>bonnie2:9000</value>
</property>
<property>
<name>dfs.namenode.http-address.ns1.nn2</name>
<value>bonnie2:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://bonnie1:8485;bonnie2:8485;bonnie3:8485/ns1</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/hadoop-2.6.0/journal</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.ns1</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.connect-timeout</name>
<value>30000</value>
</property>
</configuration>
[root@bonnie1 hadoop]# vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
[root@bonnie1 hadoop]# vi yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bonnie3</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
[root@bonnie1 hadoop]# vi slaves
bonnie1
bonnie2
bonnie3
2. 将配置好的hadoop文件拷贝到其他几个节点
[root@bonnie1 hadoop]# cd /usr/local
[root@bonnie1 local]# scp -r hadoop-2.6.0 bonnie2:/usr/local/
3. 集群初始化
(1) #启动 zookeeper ,zookeeper 安装见上一篇 zookeeper 安装与配置
[root@bonnie1 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/
[root@bonnie1 bin]# ./zkServer.sh start
[root@bonnie2 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/
[root@bonnie2 bin]# ./zkServer.sh start
[root@bonnie3 hadoop]# cd /usr/local/zookeeper-3.4.6/bin/
[root@bonnie3 bin]# ./zkServer.sh start
# 查看 zookeeper 状态
[root@bonnie1 bin]# ./zkServer.sh status
[root@bonnie2 bin]# ./zkServer.sh status
[root@bonnie3 bin]# ./zkServer.sh status
一个leader,两个follower
(2) 启动journalnode
* 分别在bonnie1、bonnie2、bonnie3上执行启动命令
[root@bonnie1 ~]# cd /usr/local/hadoop-2.6.0/sbin
[root@bonnie1 sbin]# ./hadoop-daemon.sh start journalnode
[root@bonnie2 sbin]# ./hadoop-daemon.sh start journalnode
[root@bonnie3 sbin]# ./hadoop-daemon.sh start journalnode
* 运行jps命令检验是否存在启动进程JournalNode
[root@bonnie1 sbin]# jps
5335 JournalNode
7303 Jps
3124 QuorumPeerMain
(3) 格式化HDFS
* 在节点bonnie1上执行格式化命令
[root@bonnie3 sbin]# hdfs namenode -format
# 出现如下日志表示成功
16/12/04 14:19:38 INFO common.Storage: Storage directory /usr/local/hadoop-2.6.0/tmp/dfs/name has been successfully formatted.
HA两节点保持同步,将invin01上的tmp目录拷贝到invin02节点
格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/usr/local/hadoop-2.6.0/tmp,然后将/usr/local/hadoop-2.6.0/tmp拷贝到bonnie2的/usr/local/hadoop-2.6.0/下
[root@bonnie1 hadoop-2.6.0]# scp -r tmp/ bonnie2:/usr/local/hadoop-2.6.0/
(4) 格式化ZK
[root@bonnie1 hadoop-2.6.0]# hdfs zkfc -formatZK
# 出现如下日志表示成功
16/12/04 14:20:48 INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/ns1 in ZK.
4. 启动集群
(1) jps (kill -9 [进程号])关闭(除QuorumPeerMain)所有进程
(2) 启动HDFS(在bonnie1上执行)
sbin/start-dfs.sh
(3) 启动YARN(在bonnie3上执行)
sbin/start-yarn.sh
5. hadoop-2.6.0集群配置完毕,通过浏览器访问验证
http://10.211.55.21:50070
NameNode 'bonnie1:9000' (active)
http://10.211.55.22:50070
NameNode 'bonnie2:9000' (standby)
http://10.211.55.23:8088
6. HDFS测试-上传下载文件
hadoop fs -mkdir /tmp/input #在HDFS上新建文件夹
hadoop fs -put input1.txt /tmp/input #把本地文件input1.txt传到HDFS的/tmp/input目录
hadoop fs -get input1.txt /tmp/input/input1.txt #把HDFS文件拉到本地
hadoop fs -ls /tmp/output #列出HDFS的某目录
hadoop fs -cat /tmp/ouput/output1.txt #查看HDFS上的文件
hadoop fs -rm -r /home/less/hadoop/tmp/output #删除HDFS上的目录
# 查看HDFS状态,比如有哪些datanode,每个datanode的情况
hadoop dfsadmin -report
hadoop dfsadmin -safemode leave # 离开安全模式
hadoop dfsadmin -safemode enter # 进入安全模式
7. YARN测试-WordCount
vi test.csv
hello tomcat
help yumily
cat bonnie
上传测试数据文件
hadoop fs -put test.csv /
运行wordcount
cd hadoop-2.6.0/share/hadoop/mapreduce/
hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /test.csv /out
8. Hadoop启动与关闭流程
(1) 启动流程
分别在bonnie1,bonnie2,bonnie3上执行启动命令
[root@bonnie1 ~]# cd /usr/local/zookeeper-3.4.6/bin/
[root@bonnie1 bin]# ./zkServer.sh start
(2) 查看各ZK节点状态
[root@bonnie1 bin]# ./zkServer.sh status
一个leader,两个follower
(3) 启动HDFS(在invin01上执行)
[root@bonnie1 hadoop-2.6.0]# sbin/start-dfs.sh
(4) 启动YARN
[root@bonnie1 hadoop-2.6.0]# sbin/start-yarn.sh
9 关闭流程
(1)关闭HDFS(在invin01上执行)
[root@bonnie1 hadoop-2.6.0]#sbin/stop-dfs.sh
(2)关闭YARN(在invin03上执行)
[root@bonnie1 hadoop-2.6.0]# sbin/stop-yarn.sh
(3)关闭ZK(在invin04,invin05,invin06上执行)
[root@bonnie1 hadoop-2.6.0]# cd /home/hduser/zookeeper-3.4.6/bin/
[root@bonnie1 bin]# ./zkServer.sh stop
Hadoop-2.6.0 集群的 安装与配置的更多相关文章
- hadoop 2.2.0集群安装详细步骤(简单配置,无HA)
安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...
- Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)
现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...
- hadoop 2.2.0 集群部署 坑
注意fs.defaultFS为2..0新的变量,代替旧的:fs.default.name hadoop 2.2.0 集群启动命令:bin/hdfs namenode -formatsbin/start ...
- ZooKeeper 集群的安装、配置---Dubbo 注册中心
ZooKeeper 集群的安装.配置.高可用测试 Dubbo 注册中心集群 Zookeeper-3.4.6 Dubbo 建议使用 Zookeeper 作为服务的注册中心. Zookeeper 集群中只 ...
- Dubbo入门到精通学习笔记(十四):ActiveMQ集群的安装、配置、高可用测试,ActiveMQ高可用+负载均衡集群的安装、配置、高可用测试
文章目录 ActiveMQ 高可用集群安装.配置.高可用测试( ZooKeeper + LevelDB) ActiveMQ高可用+负载均衡集群的安装.配置.高可用测试 准备 正式开始 ActiveMQ ...
- Dubbo入门到精通学习笔记(十三):ZooKeeper集群的安装、配置、高可用测试、升级、迁移
文章目录 ZooKeeper集群的安装.配置.高可用测试 ZooKeeper 与 Dubbo 服务集群架构图 1. 修改操作系统的/etc/hosts 文件,添加 IP 与主机名映射: 2. 下载或上 ...
- hadoop 2.2.0集群安装
相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...
- 在Hadoop-2.2.0集群上安装 Hive-0.13.1 with MySQL
fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3872872.html 软件环境 操作系统:Ubuntu14.04 JDK版本:jdk1 ...
- 大数据高可用集群环境安装与配置(06)——安装Hadoop高可用集群
下载Hadoop安装包 登录 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 镜像站,找到我们要安装的版本,点击进去复制下载链接 ...
随机推荐
- CSS线性渐变
/*CSS线性渐变*/ FILTER: progid:DXImageTransform.Microsoft.Gradient(gradientType=0,startColorStr=#ffffff, ...
- Visual Studio 必备神器
会使用工具是人类文明的一大进步,今天敏捷大行其道,好的工具可以大大的提高生产力,这里说的工具都是VS平台上的扩展工具,一些机械的部分可以交给工具去处理,自己多关注其他部分.下面分享下我觉得不错的工具, ...
- Java写操作
//:ThinkingInJava/net.mindview.io/write2File.java package net.mindview.io; import java.io.BufferedRe ...
- tp 展示页面的后台框架
基于郭河系统的tp后台管理系统 1.navicat的数据库建立: 1.1 新建数据库: 输入数据库名. 字符集 utf8. 排列规则 utf8 generai ci. 1.2新建表: id是个好习惯. ...
- win10下vs2015配置Opencv3.1.0过程详解
下载安装Opencv3.1.0 下载Opencv3.1.0,进入官网,点击opencv for windows即可下载. 点击运行下载好的文件.实际上,opencv的安装程序就是解压缩文件,个人因为 ...
- 何时使用Swift Structs和Classes
Swift 圈中有一个被反复讨论的话题是:何时使用struct,何时使用class.我觉得今天我也要给出我的个人观点. 值 VS 引用 答案真的很简单了:当你需要用值语义的时候使用class,需要用引 ...
- servlet 生命周期
Ò编写一个HelloWordServlet类
- Java 第11章 类的无参方法
类的无参方法 类的方法由哪几部分组成? 方法的定义: 1.访问权限修饰符 2.方法返回的数据类型 3.方法的名称 4.方法的主体 成员变量和局部变量的区别有那些? ~ 作用域不同 - 成员变量的作用域 ...
- 关闭 selinux 和防火墙
1.关闭 selinux 修改 它的配置文档 /etc/selinux/conf 修改 SELINUX=disabled 或者permissive 2. 关闭 防火墙 输入命令 systemctl d ...
- 基于VC的声音文件操作(二)
(二)VC的声音操作 操作声音文件,也就是将WAVE文件打开获取其中的声音数据,根据所需要的声音数据处理算法,进行相应的数学运算,然后将结果重新存储与WAVE格式的文件中去:可以使用CFILE类来实现 ...