1.在第2个个节点上重复http://www.cnblogs.com/littlesuccess/p/3361497.html文章中的第1-5步

2.修改第1个节点上的hdfs-site.xml中的配置份数为3

[root@server-305 ~]# vim /opt/hadoop/etc/hadoop/hdfs-site.xml
  <property>
<name>dfs.replication</name>
<value>3</value>
</property>

3.修改第一个节点上的yarn-site.xml中的yarn resourcemanager地址

[root@server- hadoop]# vi yarn-site.xml
  <property>
<name>yarn.resourcemanager.address</name>
<value>10.10.96.32:</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>10.10.96.32:</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>10.10.96.32:</value>
</property>

4.将第1个节点上的core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml拷贝到第2个节点

[root@server- ~]# scp /opt/hadoop/etc/hadoop/core-site.xml 192.168.32.33:/opt/hadoop/etc/hadoop/core-site.xml
root@192.168.32.33's password:
core-site.xml % .0KB/s :
[root@server-305 ~]# scp /opt/hadoop/etc/hadoop/hdfs-site.xml 192.168.32.33:/opt/hadoop/etc/hadoop/hdfs-site.xml
root@192.168.32.33's password:
hdfs-site.xml 100% 1406 1.4KB/s 00:00
[root@server- ~]# scp /opt/hadoop/etc/hadoop/mapred-site.xml 192.168.32.33:/opt/hadoop/etc/hadoop/mapred-site.xml
root@192.168.32.33's password:
mapred-site.xml % .8KB/s :
[root@server- ~]# scp /opt/hadoop/etc/hadoop/yarn-site.xml 192.168.32.33:/opt/hadoop/etc/hadoop/yarn-site.xml
root@192.168.32.33's password:
yarn-site.xml % .9KB/s :

5.在第1个节点上关闭namenode,secondarynamenode,datanode

[root@server- ~]# su - hdfs
[hdfs@server- ~]$ cd /opt/hadoop/sbin
[hdfs@server- sbin]$ ./hadoop-daemon.sh stop namenode
stopping namenode
[hdfs@server- sbin]$ ./hadoop-daemon.sh stop secondarynamenode
stopping secondarynamenode
[hdfs@server- sbin]$ ./hadoop-daemon.sh stop datanode
stopping datanode

6.在第1个节点上关闭resourcemanager,nodemanager

[yarn@server- sbin]$ ./yarn-daemon.sh stop resourcemanager
stopping resourcemanager
[yarn@server- sbin]$ ./yarn-daemon.sh stop nodemanager
stopping nodemanager

7.在第一个节点上格式化集群并重新启动hdfs

[root@server- ~]# su - hdfs
[hdfs@server- ~]$ cd /opt/hadoop/bin
[hdfs@server- bin]$ ./hadoop namenode -format
[hdfs@server- bin]$ cd ../sbin
[hdfs@server- sbin]$ ./hadoop-daemon.sh start namenode
[hdfs@server- sbin]$ ./hadoop-daemon.sh start datanode

8.在第2个节点上启动secondarynamenode,datanode

[hdfs@server-305 ~]# ssh 192.168.32.33
[hdfs@server-308 ~]# cd /opt/hadoop/sbin
[hdfs@server- sbin]# ./hadoop-daemon.sh start secondarynamenode
starting secondarynamenode, logging to /opt/hadoop/logs/hadoop-root-secondarynamenode-server-.out
[hdfs@server- sbin]# jps
SecondaryNameNode
Jps
[hdfs@server- sbin]# ./hadoop-daemon.sh start datanode
starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-server-.out
Java HotSpot(TM) -Bit Server VM warning: You have loaded library /opt/hadoop-2.1.-beta/lib/native/libhadoop.so.1.0. which might have disabled stack guard. The VM will try to fix the stack guard now.
It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.
[hdfs@server- sbin]# jps
DataNode
SecondaryNameNode
Jps
[hdfs@server- sbin]#

9.在第一个节点上以yarn用户启动resourcemanager和nodemanager

10.在第2个节点上yarn用户启动nodemanager

11.检查192.168.32.31:8088

常见问题处理:

1.发现只能看到一个datanode,查看第2个,第3个节点上查看datanode日志,发现这两个节点无法连接到第一个节点。原因是防火墙没关掉。

2. JAVA_HOME not set

Error: JAVA_HOME is not set and could not be found.

这个问题是在执行libexec/hadoop-config.sh文件时出错。可以在文件开头把JAVA_HOME环境变量设置一下。在文件开头加入
JAVA_HOME=/usr/java/latest
问题解决

2.在启动hadoop之后测试hadoop写文件:

hadoop fs -put testfile /user/shaochen/testfile
报错误:/user/shaochen/testfile file or directory does not exist.
通过检查第2个和第三个节点,发现/var/data/hadoop/hdfs的权限不对。

chown hdfs:hadoop /var/data/hadoop/hdfs -R

CentOS6.4安装Hadoop2.0.5 alpha - 3-Node Cluster的更多相关文章

  1. CentOS6.4安装Hadoop2.0.5 alpha - Single Node Cluster

    1.安装JDK7 rpm到/usr/java/jdk1.7.0_40,并建立软链接/usr/java/default到/usr/java/jdk1.7.0_40 [root@server-308 ~] ...

  2. Centos6.5安装Redis3.0备忘记录

    Centos6.5安装Redis3.0 1. 安装C编译环境 首先需要安装编译Redis的C环境,在命令行执行以下命令: [root@itzhouq32 tools] yum install gcc- ...

  3. CentOS6.10安装redis5.0

    1.以安装redis5.0.0为例 下载安装包:http://redis.io 安装非常简单! [root@centos6 ~]#yum install gcc #需要先安装GCC,如果已安装请忽略 ...

  4. centos6编译安装zabbix3.0和中文支持整理文档

    编者按: 最近公司部分业务迁移机房,为了更方便的监控管理主机资源,决定上线zabbix监控平台.运维人员使用2.4版本的进行部署,个人在业余时间尝鲜,使用zabbix3.0进行部署,整理文档如下,仅供 ...

  5. CentOS6.5安装zabbix3.0

    Server端 搭建LAMP(Linux+Apache+Mysql+PHP)环境 1.安装MySQL #安装地址:https://dev.mysql.com/downloads/repo/yum/ y ...

  6. centos6.6安装hadoop-2.5.0(三、完全分布式安装)

    操作系统:centos6.6(三台服务器) 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz hadoop ...

  7. centos6.6安装hadoop-2.5.0(一、本地模式安装)

    操作系统:centos6.6(一台服务器) 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz hadoop ...

  8. centos6.6安装hadoop-2.5.0(二、伪分布式部署)

    操作系统:centos6.6(一台服务器) 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz 伪分布式环境 ...

  9. centos6.6安装hadoop-2.5.0(五、部署过程中的问题解决)

    操作系统:centos6.6 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz 一.安装过程中会出现WAR ...

随机推荐

  1. 文件上传插件uploadify详解

    官网:http://www.uploadify.com/ 基于jquery的文件上传控件,支持ajax无刷新上传,多个文件同时上传,上传进行进度显示,删除已上传文件. 要求使用jquery1.4或以上 ...

  2. Super Ugly Number

    eg 2,3,5 把第一个元素(2,1)放到最小堆,2表示乘积,1表示乘数   乘数     队列                          最小堆                   即将进 ...

  3. Linux 打通ssh无密码登录

    像hadoop和spark这类的集群,因为master节点要控制slave节点,以及各节点之间要交互信息,所以需要各节点之间能够互相无密码登录. 通过RSA保存密码, 基本操作如下: Step 1: ...

  4. 指定页面配置https(apache/tomcat)

    apache/tomcat服务器下配置https         apache下配置https:             首先在网站根目录下,找到.htaccess文件(如果没有则新建),apache ...

  5. Android中Bitmap和Drawable

    一.相关概念 1.Drawable就是一个可画的对象,其可能是一张位图(BitmapDrawable),也可能是一个图形(ShapeDrawable),还有可能是一个图层(LayerDrawable) ...

  6. JAVA基础知识之JDBC——ResultSet的滚动和更新(statement的额外参数)

    ResultSet不仅可以内存中的一张二维表一样保存statement执行SQL的结果集,还能通过结果集修改DB的数据.ResultSetMetaData则可以用来获得ResultSet对象的相关信息 ...

  7. llinux 压缩 解压

    1.zip  1) 将文件夹 mydir 压缩为 mydir.zip zip -r mydir.zip mydir 2) 将文件 one.two 压缩到 ot.zip zip -r ot.zip on ...

  8. 【Spring】Spring的定时任务

    > 参考的优秀文章 Task Execution and Scheduling > 版本说明 <dependencies> <dependency> <gro ...

  9. Hadoop 2.4.x集群安装配置问题总结

    配置文件:/etc/profile export JAVA_HOME=/usr/java/latest export HADOOP_PREFIX=/opt/hadoop-2.4.1 export HA ...

  10. rebuild new environment for DW step

    Steps to rebuild PPE environment: (CTS) 1, Disable both CTS Daily Job (Daily) and CTS Daily Job (Sta ...