1基本流程
步骤1:准备硬件(linux操作系统)
步骤2:准备软件安装包,并安装基础软件(主要是JDK)
步骤3:修改配置文件
步骤4:分发hadoop
步骤5:启动服务
步骤6:验证是否启动成功!
2硬件配置要求
1测试环境:
一台pc机或者服务器
建议内存不少于4G(2G也行)---------越高越流畅
2生产环境:
>小于100个节点
建议每台机器配置不少于:
dual quad-core 2.6 Ghz CPU,
24 GB of DDR3 RAM
dual 1 Gb Ethernet NICs
a SAS drive controller ---sas驱动控制器
>大于100个节点
需要提高master节点(resourcemanager/namenode)硬件配置【因为这里是瓶颈所以这里要高一些】,建议参考书籍《Hadoop Operations》第四章 linux测试环境准备
建议使用非root用户安装Hadoop
root用户权限过大,误操作容易造成很大损失-----------------如果是线上环境,直接就被劝退了。
Hadoop的某些功能不允许root用户操作(即hadoop本身也做了限制)-------注解:创建一个hadoop用户,hdfs就创建一个hdfs用户,yarn就创建一个yarn用户 SSH免密码登陆
目的:启动hadoop方便(其实是可以不设置ssh免密码登陆,但需要登陆到各个节点单独启动某个服务,如果设置了master会免密码登陆到各个节点自动启动服务)
只需要设置Master节点到各个slave节点的免密码登陆 ---- 单向的 step1:将安装包hadoop-2.2.0.tar。gz存放到某一个目录下,并解压
step2:修改解压后的/etc/hadoop下的xml配置文件(如果文件不存在,则自己创建)
1 hadoop-env.sh
export JAVA_HOME=/home/dongxicheng/hadoop/jdk1.6.0_45
2 slaves文件修改为以下配置
Yarn001
3 mapred-site.xml
<configuration>
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
</configuration>
4 core-site.xml(其中“YARN001==192.168.2.200”是在/etc/hosts中设置的host,如果未设置,则换为localhost)
<configuration>
  <property>
  <name>fs.defaultFS</name> --- fs.default.name 等效,只不过是1.x,目前兼容使用。
  <value>hdfs://192.168.2.200:9000</value>
  <final>true</final>
  </property>
<property>
  <name>dfs.replication</name>
  <value>1</value><!--单机版么-->
  </property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/data/hadoop/hadoop_tmp</value>
  </property>
</configuration>
5 yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
 <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>
</configuration> step3:启动服务
1 格式化 bin/hadoop namenode -format
2 启动HDFS:sbin/start-dfs.sh (这样会启动secondarynamenode,最好分布启动)
3 启动yarn:sbin/start-yarn.sh
第二种启动方式:(便于启动过程中的派错)
bin/hadoop namenode -format
sbin/hadoop-daemon.sh start namenode
jps 然后产看logs namenode..log 不看out
sbin/hadoop-daemon.sh start datanode
jps data node 或者 localhost:50070
启动yarn(由于yarn不想hdfs那么复杂,容易出错,推荐使用start-yarn.sh 直接启动
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager step4:检测是否安装成功
jps 全称:/usr/java/jdk/bin/jps 根据你的jdk位置而不同
2458 SecondaryNameNode ----第二种启动方式不会有这个东东
19386 HQuorumPeer
4471 ResourceManager
2281 NameNode
19603 HRegionServer
19460 HMaster
28667 Jps
或者检测:
http://yarn001:8088
http://yarn001:50070 问题1:采用虚拟机搭建hadoop环境,每次虚拟机重启后,hadoop无法启动成功
解决方案:
在core-site中增加两个配置:
<property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/dongxicheng/hadoop/dfs/name</value>
 </property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/dongxicheng/hadoop/dfs/data</value>
 </property>
其中,各个目录一定是非/tmp下的目录
(默认是/tmp目录,虚拟机重启后都会被删除)

Hadoop 学习笔记 (八) hadoop2.2.0 测试环境部署 及两种启动方式的更多相关文章

  1. Hadoop 学习笔记 (九) hadoop2.2.0 生产环境部署 HDFS HA部署方法

    step1:将安装包hadoop-2.2.0.tar.gz存放到某一个目录下,并解压 step2:修改解压后的目录中的文件夹/etc/hadoop下的xml配置文件(如果文件不存在,则自己创建) 包括 ...

  2. Hadoop学习笔记—22.Hadoop2.x环境搭建与配置

    自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...

  3. 移动端UI自动化Appium测试——Appium server两种启动方式

    执行自动化测试之前,需要先运行appium server,这样才能形成server与java client的通信,启动server有两种方式,一种是命令,一种是按钮图标,具体使用如下: 1.用命令启动 ...

  4. Hadoop 学习笔记 (十) hadoop2.2.0 生产环境部署 HDFS HA Federation 含Yarn部署

    其他的配置跟HDFS-HA部署方式完全一样.但JournalNOde的配置不一样>hadoop-cluster1中的nn1和nn2和hadoop-cluster2中的nn3和nn4可以公用同样的 ...

  5. Hadoop学习笔记—21.Hadoop2的改进内容简介

    Hadoop2相比较于Hadoop1.x来说,HDFS的架构与MapReduce的都有较大的变化,且速度上和可用性上都有了很大的提高,Hadoop2中有两个重要的变更: (1)HDFS的NameNod ...

  6. Hadoop学习笔记(两)设置单节点集群

    本文描写叙述怎样设置一个单一节点的 Hadoop 安装.以便您能够高速运行简单的操作,使用 Hadoop MapReduce 和 Hadoop 分布式文件系统 (HDFS). 參考官方文档:Hadoo ...

  7. hadoop学习笔记(二):centos7三节点安装hadoop2.7.0

    环境win7+vamvare10+centos7 一.新建三台centos7 64位的虚拟机 master node1 node2 二.关闭三台虚拟机的防火墙,在每台虚拟机里面执行: systemct ...

  8. Hadoop学习笔记(6) ——重新认识Hadoop

    Hadoop学习笔记(6) ——重新认识Hadoop 之前,我们把hadoop从下载包部署到编写了helloworld,看到了结果.现是得开始稍微更深入地了解hadoop了. Hadoop包含了两大功 ...

  9. hadoop学习笔记-目录

    以下是hadoop学习笔记的顺序: hadoop学习笔记(一):概念和组成 hadoop学习笔记(二):centos7三节点安装hadoop2.7.0 hadoop学习笔记(三):hdfs体系结构和读 ...

随机推荐

  1. 【Android - MD】之CoordinatorLayout的使用

    CoordinatorLayout是Android 5.0新特性--Material Design中的一个布局控件,主要用来协调各个子视图之间的工作,也可以用来作为顶部布局.CoordinatorLa ...

  2. vs2012关闭IDE硬件加速设置

    对于我这样的老古董电脑是很有必要的设置! 如图所示:

  3. OC中类别、扩展、协议与托付

    类别(category)--通过使用类别,我们能够动态地为现有的类加入新方法.并且能够将类定义模块化地分不到多个相关文件里.通常仅仅在类别中定义方法. 类别,接口部分的定义,通常该文件命名为已有&qu ...

  4. 3高并发server:多路IO之epoll

     1 epoll epoll是Linux下多路复用IO接口select/poll的增强版本号,它能显著提高程序在大量并.发连接中仅仅有少量活跃的情况下的系统CPU利用率,由于它会复用文件描写叙述符 ...

  5. char* 和char[]的差别

    下面内容均来自互联网,系笔者汇总并总结. 1. 问题介绍 问题引入: 在实习过程中发现了一个曾经一直默认的错误,相同char *c = "abc"和char c[]="a ...

  6. Qt 学习之路:Graphics View Framework

    Graphics View 提供了一种接口,用于管理大量自定义的 2D 图形元素,并与之进行交互:还提供了用于将这些元素进行可视化显示的观察组件,并支持缩放和旋转.我们通常所说的 Linux 的 KD ...

  7. Java基础知识强化之集合框架笔记20:数据结构之 栈 和 队列

    1.  栈 先进后出 解析图: 2. 队列 先进先出 解析图:

  8. 移动端 设置 小于12px 字体 初探

    1.移动端字号规范 2. 百度字号调研 3. 绕过12px 限制 4. 缩放 5. chrome  字号

  9. webservice 发布到外网的时候

    在web.config的<system.web></system.web>中间加入如下配置节内容<webServices>          <protoco ...

  10. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...