1基本流程
步骤1:准备硬件(linux操作系统)
步骤2:准备软件安装包,并安装基础软件(主要是JDK)
步骤3:修改配置文件
步骤4:分发hadoop
步骤5:启动服务
步骤6:验证是否启动成功!
2硬件配置要求
1测试环境:
一台pc机或者服务器
建议内存不少于4G(2G也行)---------越高越流畅
2生产环境:
>小于100个节点
建议每台机器配置不少于:
dual quad-core 2.6 Ghz CPU,
24 GB of DDR3 RAM
dual 1 Gb Ethernet NICs
a SAS drive controller ---sas驱动控制器
>大于100个节点
需要提高master节点(resourcemanager/namenode)硬件配置【因为这里是瓶颈所以这里要高一些】,建议参考书籍《Hadoop Operations》第四章 linux测试环境准备
建议使用非root用户安装Hadoop
root用户权限过大,误操作容易造成很大损失-----------------如果是线上环境,直接就被劝退了。
Hadoop的某些功能不允许root用户操作(即hadoop本身也做了限制)-------注解:创建一个hadoop用户,hdfs就创建一个hdfs用户,yarn就创建一个yarn用户 SSH免密码登陆
目的:启动hadoop方便(其实是可以不设置ssh免密码登陆,但需要登陆到各个节点单独启动某个服务,如果设置了master会免密码登陆到各个节点自动启动服务)
只需要设置Master节点到各个slave节点的免密码登陆 ---- 单向的 step1:将安装包hadoop-2.2.0.tar。gz存放到某一个目录下,并解压
step2:修改解压后的/etc/hadoop下的xml配置文件(如果文件不存在,则自己创建)
1 hadoop-env.sh
export JAVA_HOME=/home/dongxicheng/hadoop/jdk1.6.0_45
2 slaves文件修改为以下配置
Yarn001
3 mapred-site.xml
<configuration>
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
</configuration>
4 core-site.xml(其中“YARN001==192.168.2.200”是在/etc/hosts中设置的host,如果未设置,则换为localhost)
<configuration>
  <property>
  <name>fs.defaultFS</name> --- fs.default.name 等效,只不过是1.x,目前兼容使用。
  <value>hdfs://192.168.2.200:9000</value>
  <final>true</final>
  </property>
<property>
  <name>dfs.replication</name>
  <value>1</value><!--单机版么-->
  </property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/data/hadoop/hadoop_tmp</value>
  </property>
</configuration>
5 yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>
</configuration> step3:启动服务
1 格式化 bin/hadoop namenode -format
2 启动HDFS:sbin/start-dfs.sh (这样会启动secondarynamenode,最好分布启动)
3 启动yarn:sbin/start-yarn.sh
第二种启动方式:(便于启动过程中的派错)
bin/hadoop namenode -format
sbin/hadoop-daemon.sh start namenode
jps 然后产看logs namenode..log 不看out
sbin/hadoop-daemon.sh start datanode
jps data node 或者 localhost:50070
启动yarn(由于yarn不想hdfs那么复杂,容易出错,推荐使用start-yarn.sh 直接启动
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager step4:检测是否安装成功
jps 全称:/usr/java/jdk/bin/jps 根据你的jdk位置而不同
2458 SecondaryNameNode ----第二种启动方式不会有这个东东
19386 HQuorumPeer
4471 ResourceManager
2281 NameNode
19603 HRegionServer
19460 HMaster
28667 Jps
或者检测:
http://yarn001:8088
http://yarn001:50070 问题1:采用虚拟机搭建hadoop环境,每次虚拟机重启后,hadoop无法启动成功
解决方案:
在core-site中增加两个配置:
<property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/dongxicheng/hadoop/dfs/name</value>
 </property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/dongxicheng/hadoop/dfs/data</value>
 </property>
其中,各个目录一定是非/tmp下的目录
(默认是/tmp目录,虚拟机重启后都会被删除)

Hadoop 学习笔记 (八) hadoop2.2.0 测试环境部署 及两种启动方式的更多相关文章

  1. Hadoop 学习笔记 (九) hadoop2.2.0 生产环境部署 HDFS HA部署方法

    step1:将安装包hadoop-2.2.0.tar.gz存放到某一个目录下,并解压 step2:修改解压后的目录中的文件夹/etc/hadoop下的xml配置文件(如果文件不存在,则自己创建) 包括 ...

  2. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  3. 移动端UI自动化Appium测试——Appium server两种启动方式

    执行自动化测试之前,需要先运行appium server,这样才能形成server与java client的通信,启动server有两种方式,一种是命令,一种是按钮图标,具体使用如下: 1.用命令启动 ...

  4. Hadoop 学习笔记 (十) hadoop2.2.0 生产环境部署 HDFS HA Federation 含Yarn部署

    其他的配置跟HDFS-HA部署方式完全一样.但JournalNOde的配置不一样>hadoop-cluster1中的nn1和nn2和hadoop-cluster2中的nn3和nn4可以公用同样的 ...

  5. Hadoop学习笔记—21.Hadoop2的改进内容简介

    Hadoop2相比较于Hadoop1.x来说,HDFS的架构与MapReduce的都有较大的变化,且速度上和可用性上都有了很大的提高,Hadoop2中有两个重要的变更: (1)HDFS的NameNod ...

  6. Hadoop学习笔记(两)设置单节点集群

    本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...

  7. hadoop学习笔记(二):centos7三节点安装hadoop2.7.0

    环境win7+vamvare10+centos7 一.新建三台centos7 64位的虚拟机 master node1 node2 二.关闭三台虚拟机的防火墙,在每台虚拟机里面执行: systemct ...

  8. Hadoop学习笔记(6) ——重新认识Hadoop

    Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...

  9. hadoop学习笔记-目录

    以下是hadoop学习笔记的顺序: hadoop学习笔记(一):概念和组成 hadoop学习笔记(二):centos7三节点安装hadoop2.7.0 hadoop学习笔记(三):hdfs体系结构和读 ...

随机推荐

  1. winform 导出TXT 分类: WinForm 2014-05-15 15:29 128人阅读 评论(0) 收藏

    截图: 代码实现:(导出txt按钮事件) using System.IO; using System.Data.OleDb; private void btnOutTxt_Click(object s ...

  2. cocos2d-x3.0 ListView

    .h #include "cocos2d.h" #include "cocos-ext.h" #include "ui/CocosGUI.h" ...

  3. UML进行Linux内核调试

    http://www.lenky.info/ http://blog.csdn.net/ztz0223/article/details/7874759 http://user-mode-linux.s ...

  4. Eclipse 每行 80 字符限制的提示线

    有时候希望eclipse和C++编辑器之类有条对齐线 打开 Eclipse, Windows -> Prefereces -> General -> Editors -> Te ...

  5. NUll在oracle与sqlserver中使用相同与区别

    最近在使用Oracle进行开发,遇到很多与以前使用sqlserver的不同语法.今天遇到null在两种数据库上面操作上的差别,在此记录两种数据库上的差异. null 与字符串相加 1.在oracle中 ...

  6. C# ashx与html的联合使用

    本文将介绍ashx和html的联合使用方法,尽管目前流行mvc,但handler一般处理程序还是ASP.NET的基础知识,结合html页面,做出来的网页绝对比WebForm的简洁和效率高. 首先,概要 ...

  7. 开源的Android开发框架-------PowerFramework使用心得(五)网络请求HTTPRequest

    GET请求示例 //所有参数都使用Bundle,用putString Bundle bundle = new Bundle(); bundle.putString("username&quo ...

  8. rdlc报表

    也是第一次接触报表这个东西.现在在我理解,报表无非就是两个内容,格式和数据. 格式没有多少了解,就记录了,以后再续.数据的绑定和结果的显示是怎么实现的呢? 今天的主角就是rdlc这个文件和Report ...

  9. ASP.NET 导入EXCEL文档

    鉴于教务一般都是手动输入学生信息,在未了解本校数据库的客观情况之下,我们准备设计一个导入excel文档中学生信息如数据库的功能.结合网上各类大牛的综合版本出炉.. 首先具体的实现思想如下: 1.先使用 ...

  10. oracle模糊查询效率可这样提高

    1.使用两边加'%'号的查询,oracle是不通过索引的,所以查询效率很低. 例如:select count(*) from lui_user_base t where t.user_name lik ...