hadoop2.2.0集群搭建与部署
原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/3818908.html
一、安装环境
1、系统环境
CentOS 6.4
2、集群机器节点ip
节点一ip:10.100.209.221 (master)
节点二ip:10.100.209. 222 (slave)
节点三ip:10.100.209.223 (slave)
安装时可以基于自己的配置与此进行对应
二、系统环境配置
1、创建hdp用户与hdp用户组
su root
groupadd hdp
useradd -g hdp hdp
passwd hdp
2、授予hdp用户sudo权限
vim /etc/sudoers 增加如下内容
%hdp ALL=(ALL) ALL
3、添加host配置
vim /etc/hosts
添加ip对应的hostname(根据实际ip填写对应关系)
su hdp
ssh-keygen (执行此后一直敲回车即可)
ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node01
ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node02
ssh-copy-id -i ~/.ssh/id_rsa.pub hdp@node03
推荐使用ssh-copy-id命令,目前网上很多文章写的方法都是自己一个一个文件的copy,麻烦又费时。
三、软件下载与安装
在集群所有机器上执行下面的操作步骤安装基础软件:
cd /home/hdp
wgethttp://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz
wget http://download.oracle.com/otn-pub/java/jdk/7u60-b19/jdk-7u60-linux-x64.rpm
2、java安装
cd /home/hdp
sudo rpm -ivhjdk-7u51-linux-x64.rpm
修改系统默认java版本:
alternatives - -install /usr/bin/javajava /usr/java/jdk1.7.0_51/bin/java 2
alternatives --config java
会出现下面类似界面,选择/usr/java/jdk1.7.0_51/bin/java选项即可
执行: java -version 命令查看java版本是否为1.7.0_51
3、hadoop安装
sudo mv /home/hdp/hadoop-2.2.0.tar.gz/usr/local/
cd /usr/local
sudo tar zxvf hadoop-2.2.0.tar.gz
sudo ln -s hadoop-2.2.0 hadoop
sudo chown -R hdp:hdp hadoop-2.2.0
sudo rm -rf hadoop-2.2.0.tar.gz
四、hadoop部署(单机版)
以node01节点安装为例说明:
1、修改配置文件
cd /usr/local/hadoop/etc/hadoop
vim slaves 添加如下内容
node01
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:8020/</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop-${user.name}</value>
</property>
</configuration>
vim hdfs-site.xml添加如下内容
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/dfs/nn</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/dfs/dn</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
vim mapred-site.xml添加如下内容
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.shuffle.port</name>
<value>8080</value>
</property>
<property>
<name>mapreduce.job.tracker</name>
<value>node01:8021</value>
</property>
<property>
<name>mapreduce.job.tracker.http.address</name>
<value>node01:50030</value>
</property>
</configuration>
vimyarn-site.xml添加如下内容
<configuration>
<property>
<name>yarn.resourcemanager.address</name>
<value>node01:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>node01:8030</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>node01:8088</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>node01:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>node01:8033</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
2、启动集群
sudo mkdir /dfs/dn
sudo mkdir /dfs/nn
/usr/local/hadoop/bin/hdfs namenode -format
/usr/local/hadoop/sbin/start-all.sh
jps命令验证NameNode、DataNode、ResourceManager、NodeManager时候都成功启动了
五、hadoop部署(集群版)
以node01为master节点,node02、node03为slave节点安装为例说明:
cd/usr/local/hadoop/etc/hadoop
vim slaves 添加如下内容
node02
node03
vim core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml配置文件修改内容与单机版部署一样
sudo mkdir /dfs/dn
sudo mkdir /dfs/nn
2、启动集群(node01节点运行启动脚本)
/usr/local/hadoop/bin/hdfs namenode -format
/usr/local/hadoop/sbin/start-all.sh
原创文章,转载请注明: 转载自http://www.cnblogs.com/tovin/p/3818908.html
hadoop2.2.0集群搭建与部署的更多相关文章
- 分布式Hbase-0.98.4在Hadoop-2.2.0集群上的部署
fesh个人实践,欢迎经验交流!本文Blog地址:http://www.cnblogs.com/fesh/p/3898991.html Hbase 是Apache Hadoop的数据库,能够对大数据提 ...
- centos下hadoop2.6.0集群搭建详细过程
一 .centos集群环境配置 1.创建一个namenode节点,5个datanode节点 主机名 IP namenodezsw 192.168.129.158 datanode1zsw 192.16 ...
- hadoop2.6.0集群搭建
p.MsoNormal { margin: 0pt; margin-bottom: .0001pt; text-align: justify; font-family: Calibri; font-s ...
- CentOS6.4上搭建hadoop-2.4.0集群
公司Commerce Cloud平台上提供申请主机的服务.昨天试了下,申请了3台机器,搭了个hadoop环境.以下是机器的一些配置: emi-centos-6.4-x86_64medium | 6GB ...
- 懒人记录 Hadoop2.7.1 集群搭建过程
懒人记录 Hadoop2.7.1 集群搭建过程 2016-07-02 13:15:45 总结 除了配置hosts ,和免密码互连之外,先在一台机器上装好所有东西 配置好之后,拷贝虚拟机,配置hosts ...
- Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)
现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机 ...
- hadoop-2.6.0集群开发环境配置
hadoop-2.6.0集群开发环境配置 一.环境说明 1.1安装环境说明 本例中,操作系统为CentOS 6.6, JDK版本号为JDK 1.7,Hadoop版本号为Apache Hadoop 2. ...
- hadoop2.8 ha 集群搭建
简介: 最近在看hadoop的一些知识,下面搭建一个ha (高可用)的hadoop完整分布式集群: hadoop的单机,伪分布式,分布式安装 hadoop2.8 集群 1 (伪分布式搭建 hadoop ...
- Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作
前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...
随机推荐
- C++ const用法小结 (欢迎大家拍砖)
C++const 关键字小结 const 是constant的缩写,本意是不变的,不易改变的意思. const 在C++中是用来修饰内置类型变量,自定义对象,成员函数,返回值,函数参数. 一.cons ...
- Excel多条件筛选、公式填充
接到一个任务,由于数据操作人员不会使用编辑公式进而无法进行相关筛选,所以要我帮忙.好久不碰Excel了,那就试试看吧. 需求是这样子的(这里做了最大化的简化):要求判断条件,男50岁以上,女40岁以上 ...
- CentOS安全设置
删除多余的用户和用户组,修改口令文件属性,禁止[Ctrl+Alt+Delete]重启命令,防止别人ping的方法.整理自互联网. 1.删除多余的用户和用户组 //删除多余用户 # vi /etc/pa ...
- DataSnap中连接池的应用
当开发人员开始创建Delphi的DataSnap应用时很常见的数据库连接定义方式是每个数据模块建立一个连接.这样做将产生大量的数据库连接,并产生很多问题.从Delphi XE开始,EMB提供了Sess ...
- 婚庆手机APP
这是一个信息化的时代,即将步入婚姻殿堂的新人们,你们是否希望有这样一款手机软件能伴随你从结婚到婚后一路的历程呢?比如说请帖通过手机客户端来将结婚的时间地点流程共享给您的亲朋好友,将您的婚纱照.随拍.写 ...
- openerp 经典收藏 通过view实现字段的只读、隐藏操作(转载)
通过view实现字段的只读.隐藏操作 原文地址:http://cn.openerp.cn/view_groups/ 在OpenERP V7视图(ir.ui.view)多了一个非常有用的字段(group ...
- Selenium-RC Python 2.7 环境配置
1.下载并安装Python http://www.python.org/getit/,我使用的是2.7.3的python版本 2.下载并安装setuptools[这个工具是python的基础包工具] ...
- apache2: bad user name ${APACHE_RUN_USER} 解决
开工后,发现有个虚拟机的apache没起来,调用apache2 -k start 后,提示如下内容: apache2: bad user name ${APACHE_RUN_USER} apache ...
- left edge algorithm.
今天在看GCPC 2013 的时候,遇到了一个简单的任务分配的题目. 即给定一系列任务[l,r], 每个人不能同时做两个, 最多需要几个人来完成? 这个问题的一个标准解法是对所有l,r排序,然后遇到l ...
- Win8 硬盘100%几个修复方法
上连接 1.改注册表:http://jingyan.baidu.com/article/e3c78d647f79be3c4c85f5d0.html 2.待续