hadoop-2.6.0集群开发环境配置

一.环境说明

1.1安装环境说明

本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2.6.0

现有四台机器例如以下

10.25.100.130 node01    //namenode

10.25.100.131 node02    //datanode

10.25.100.132 node03    //datanode

10.25.100.133 node04    //datanode

二.安装jdk,此处使用jdk1.7。

1.换文件夹到/usr 文件夹下。  cd /usr

2.创建java  文件夹 ,  mkdir java

3.将jkd拷贝到/usr/java文件夹     cp jdk-7u75-linux-x64.tar.gz  /usr/java

4.解压jdk,  tar zxvf  jdk-7u75-linux-x64.tar.gz

5.配置环境变量   vi /etc/profile

添加记录  :

export JAVA_HOME=/usr/java/jdk1.7.0_75

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

PATH=$PATH:$JAVA_HOME/bin

6.使环境变量生效   source /etc/profile

7.验证是否生效   java -version

[root@localhost java]# java -version

java version "1.7.0_75"

Java(TM) SE Runtime Environment (build 1.7.0_75-b13)

Java HotSpot(TM) 64-Bit Server VM (build 24.75-b04, mixed mode)

[root@localhost ~]#

三. 改动主机名称

1.

[root@localhost ~]# vi /etc/hosts     改动并添加后为

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

127.0.0.1 localhost

10.25.100.130 node01

10.25.100.131 node02

10.25.100.132 node03

10.25.100.133 node04

2.

[root@localhost ~]# vi /etc/sysconfig/network  将/etc/syscinfig/network 下的HOSTNAME改为node01

NETWORKING=yes

HOSTNAME=node01

3.再使用hostname命令指定一次

[root@localhost ~]# hostname node01

仅仅要又一次登入(重新启动)。命令提示字串就会改成[root@node01 ~]#

同理(1,2,3步骤)改动其他几台机器

四.  制作ssh无password登录

1.先分别制作每台主机的无password登录

[root@node01 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

[root@node01 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

[root@node01 ~]# ssh node01

Last login: Wed Jul 29 18:52:44 2015 from localhost

[root@node01 ~]#

同理制作其他几台机器

2.在/root下 生成一个.ssh目录

[root@node01 ~]# cd .ssh/

[root@node01 .ssh]# ls

authorized_keys  id_dsa  id_dsa.pub  known_hosts

[root@node01 .ssh]#

3.然后将authorized_keys文件复制到其他几台机器的/root下

[root@node01 .ssh]# scp authorized_keys root@node02:~/

[root@node01 .ssh]# scp authorized_keys root@node03:~/

[root@node01 .ssh]# scp authorized_keys root@node04:~/

4.分别进入其他几台机器将拷贝过来的文件进行重定向

[root@node02 ~]# cat authorized_keys >> ~/.ssh/authorized_keys

[root@node03 ~]# cat authorized_keys >> ~/.ssh/authorized_keys

[root@node04 ~]# cat authorized_keys >> ~/.ssh/authorized_keys

5.此时,就完毕了ssh无password登录,是不是非常easy呢。我们能够做一个測试

在node01主机下登录node04

[root@node01 .ssh]# ssh node04

Last login: Wed Jul 29 18:48:13 2015 from 10.25.100.100

[root@node04 ~]#

6.假设退出连接输入exit

[root@node04 ~]# exit

logout

Connection to node04 closed.b

[root@node01 .ssh]#

五.hadoop安装  此操作在node01机上进行,用root用户

如今就開始了我们的hadoop搭建

1, 首先在/home下建立一个hadoop目录

将hadoop安装包hadoop-2.6.0.tar.gz复制到/home/hadoop下进行解压   tar zxvf hadoop-2.6.0.tar.gz

1. 改动配置文件 [root@node01 home]# cd hadoop/

[root@node01 hadoop]# cd hadoop-2.6.0/etc/hadoop/

3.改动配置文件 core-site.xml

[root@node01 hadoop]# vi core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://node01:9000</value>   //node01是主server机名

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/hadoop-2.6</value>   /*防止后面须要每一次又一次格式化。这个文件夹不须要手动建立,执行时会自己主动建立*/

</property>

</configuration>

4.改动hdfs-site.xml

[root@node01 hadoop]# vi hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>     //datanode的节点个数,默认的为3个

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>node01:50090</value>

</property>

</configuration>

.配置执行环境  vi  hadoop-env.sh

[root@node01 hadoop]# vi hadoop-env.sh在最后加入以下一句话

export JAVA_HOME=/usr/java/jdk1.7.0_55

.配置slaves

[root@node01 hadoop]# vi slaves

改动文件中的内容为  datanode的节点

node02

node03

node04

7.拷贝安装,配置的hadoop到其他几台机器

进入/home文件夹下将文件夹/hadoop复制到其他几台机器的/home下

[root@node01 hadoop]# cd /home/

[root@node01 home]# scp -r hadoop root@node02:/home/

[root@node01 home]# scp -r hadoop root@node03:/home/

[root@node01 home]# scp -r hadoop root@node04:/home/

将三台机器的防火墙关闭掉:

service iptables stop

8.如今,你能够检查ssh到localhost没有password,这一步假设不运行,可能后面的结果Live Nodes会为0

[root@node01 home]# ssh loaclhost

9. 格式化文件系统

cd /home/hadoop/hadoop-2.6.0/

[root@node01 home]# cd hadoop/hadoop-2.6.0/

[root@node01 hadoop-2.6.0]# bin/hdfs namenode –format

10. 启动hadoop

[root@node01 hadoop-2.6.0]# sbin/start-dfs.sh

查看hadoop进程,验证是否启动成功

[root@node01 hadoop-2.6.0]# jps

3628 SecondaryNameNode

3435 NameNode

7108 Jps

说明已经启动,同理查看其它几台机器

11.查看集群执行情况,在windows下的浏览器上输入

http://node01:50070

12.关闭hadoop

[root@node01 hadoop-2.6.0]# sbin/stop-dfs.sh

查看hadoop进程,验证是否关闭成功

[root@node01 hadoop-2.6.0]# jps

7108 Jps

说明已经关闭。同理查看其它几台机器

至此一个简单的hadoop集群搭建hdfs就算完毕了。兴许学习还须要大家继续努力探索。在这就不再赘述。能够參考hadoop官方站点。http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/SingleCluster.html,Apache Hadoop 2.6.0安装学习文档教程,祝大家好运!

hadoop-2.6.0集群开发环境配置的更多相关文章

  1. hadoop 2.2.0集群安装详细步骤(简单配置,无HA)

    安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...

  2. Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

    现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...

  3. vagrant+docker搭建consul集群开发环境

    HashiCorp 公司推出的Consul是一款分布式高可用服务治理与服务配置的工具.关于其配置与使用可以参考这篇文章 consul 简介与配置说明. 一般,我们会在多台主机上安装并启动 consul ...

  4. 如何基于Jupyter notebook搭建Spark集群开发环境

    摘要:本文介绍如何基于Jupyter notebook搭建Spark集群开发环境. 本文分享自华为云社区<基于Jupyter Notebook 搭建Spark集群开发环境>,作者:apr鹏 ...

  5. hadoop 2.2.0 集群部署 坑

    注意fs.defaultFS为2..0新的变量,代替旧的:fs.default.name hadoop 2.2.0 集群启动命令:bin/hdfs namenode -formatsbin/start ...

  6. odoo8.0+PyCharm4.5开发环境配置

    终于把odoo的开发环境配置好,现把相关经验教训做个记录分享: odoo8.0+PyCharm4.5开发环境配置(剑飞花 373500710) 1.最佳兼容搭配包 试过各种组合 GreenOdoo+p ...

  7. hadoop 2.2.0集群安装

    相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...

  8. ubuntu14.04搭建Hadoop2.9.0集群(分布式)环境

    本文进行操作的虚拟机是在伪分布式配置的基础上进行的,具体配置本文不再赘述,请参考本人博文:ubuntu14.04搭建Hadoop2.9.0伪分布式环境 本文主要参考 给力星的博文——Hadoop集群安 ...

  9. hadoop2.2.0集群安装和配置

    hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFS HA.YARN等. 注意:apache提供的hadoop-2.2.0的安装包是在32位操作系统编译的,因为hadoop依赖一些C+ ...

随机推荐

  1. PCB MongoDB 数据库 Collection集合导出与导入

    由于一直以来用微软可视化图形界面习惯了,而MongoDB是命令式操作,而用系统自带CMD操作不方便, 这里介绍一款CMD的替代品,大小100多M. Cmder工具下载  https://github. ...

  2. node js koa js严格模式

      当前为配置 非原创 引用于“得金” ### nodejs项目配置终端命令 1. 检查本地 nodejs 版本`$node -v` 如果版本低就升级 2. 安装 n 升级命令 `$npm insta ...

  3. Windows phone开发 网络编程之HttpWebRequest

    HttpWebRequest和WebClient的区别1,HttpWebRequest是个抽象类,所以无法new的,需要调用HttpWebRequest.Create();2,其Method指定了请求 ...

  4. python--4、装饰器

    装饰器(Decorator) 使用场景:为被装饰器装饰的函数增加功能,但又不希望修改函数的定义,即在代码运行期间动态增加功能. 装饰器更多的用于后期功能升级而不是编写新的代码.装饰器不光能装饰函数,也 ...

  5. JSON与List之间的转换

    jsonString转换为list: JSONArray jsonArray=JSONArray.fromObject(result); List<RentCar> books=(List ...

  6. java编程基础篇-------> 从键盘输入一位整数,代表月份,编程判断指定月份属于一年中的哪个季度。如果是 12 月、1 月、2 月,就属于冬季。

    从键盘输入一位整数,代表月份,编程判断指定月份属于一年中的哪个季度.如果是 12月.1 月.2 月,就属于冬季:如果是 3 月.4 月.5 月,就属于春季:如果是 6 月.7 月.8 月,就属于夏季: ...

  7. ajax 三级联动写法

    主页面代码 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF ...

  8. 安卓代码迁移:ActionBarActivity: cannot be resolved to a type

    参考链接:http://stackoverflow.com/questions/18830736/actionbaractivity-cannot-be-resolved-to-a-type in e ...

  9. 【技术累积】【点】【java】【19】访问权限

    java中的四种访问权限 范围如下表 权限 类内 同包 不同包子类 不同包非子类 Public ✔️ ✔️ ✔️ ✔️ 默认(Default) ✔️ ✔️ ️ Protected ✔️ ✔️ ✔️ P ...

  10. Dispatch Queues and Thread Safety

    Dispatch Queues and Thread Safety It might seem odd to talk about thread safety in the context of di ...