一、hadoop2.0安装部署流程

        1、自动安装部署:Ambari、Minos(小米)、Cloudera Manager(收费)

        2、使用RPM包安装部署:Apache hadoop不支持、HDP与CDH提供

        3、使用jar包安装部署:各版本均提供。(初期为了理解hadoop,建议使用这种方式)

        部署流程:

                准备硬件(Linux操作系统)

                准备软件安装包,并安装基础软件(主要是JDK)

                将hadoop安装包分发到各个节点的同一个目录下,并解压

                修改配置文件

                启动服务

                验证是否启动成功

二、hadoop2.0软硬件准备

        硬件准备:测试环境仅需要一台Linux机器。生成环境需要多台Linux机器。

                建议内存不小于4G(性能)

        软件准备:JDK1.6+(CDH5建议JDK7)、hadoop2.0安装包。

        1、建议使用非root用户安装hadoop。(hadoop某些功能不允许在root用户下操作)

        2、配置SSH免密码登录:为了启动hadoop集群方便。

三、hadoop2.0安装包下载

        建议选择商业公司的免费版本:主要是考虑不需要版本的选择。

http://archive.cloudera.com/cdh4/cdh/4

http://archive.cloudera.com/cdh5/cdh/5

        hadoop目录结构分析:

            bin:最基本的管理脚本和使用脚本所在目录。这些脚本是sbin目录下管理脚本的基础实现。

            etc:配置文件所在的目录,包括core-site.xml、hdfs-site.xml、mapred-site.xml等,yarn-site.xml

            include:对外提供的编程库头文件。通常用于C++程序访问HDFS。

            lib:该目录包含了hadoop对外提供的编程动态库和静态库。

            libexec:各个服务对应的shell配置文件所在目录。

            sbin:hadoop管理脚本所在目录,主要包含HDFS和YARN中各类服务的启动关闭脚本。

            share:hadoop各个模块编译后的jar包所在目录。

四、hadoop2.0测试环境(单机)搭建方法

    此处仅为理论说明。

    1、首先将安装包存放到某个目录下,并解压。

    2、修改解压后的目录中的文件夹etc/hadoop下的xml配置文件:

            hadoop-env.sh修改以下配置:export JAVA_HOME=/home/....

            Slaves文件修改为以下配置:YARN001

            mapred-site.xml中:mapreduce.framework.name=yarn

            core-site.xml:fs.default.name=hdfs://YAR001:8020

            yarn-site.xml:yarn.nodenamager.aux-services=mapreduce_shuffle

            core-site.xml:dfs.replication=1

    3、启动服务:

            格式化HDFS: bin/hadoop namenode -format

            启动HDFS:sbin/start-dfs.sh

            启动YART:sbin/start-yarn.sh

    4、验证是否成功:

            jps查看对应的服务是否已经启动:

            NameNode\DataNode\NodeManager\ResourceManager\SecondaryNameNode

            访问yarn:http://yarn001:8088

            访问hdfs:http://yarn001:50070

    常见问题:

        虚拟机搭建重启后无法启动成功:原因是/tmp文件夹被清空了,配置一个非/tmp的文件夹即可。

        在core-site.xml中添加:dfs.namenode.name.dir=/xxx;   dfs.datanode.data.dir=/xxxx;

五、hadoop2.0生产环境(多机)搭建方法

    1、将安装包存放到某一目录下,并解压。

    2、修改解压目录中的文件夹etc/hadoop下的xml配置文件。

    3、格式化并启动HDFS

    4、启动YARN

    与单机环境的不同之处在于步骤2中修改的配置文件的内容有所不同。以及步骤3 的详细步骤不同。

    HDFS HA部署方法:详见后续文章

    HDFS HA+Federation的部署方法:详见后续文章

    YARN部署方法:详见后续文章

hadoop入门(3)——hadoop2.0理论基础:安装部署方法的更多相关文章

  1. Storm-0.9.0.1安装部署 指导

    可以带着下面问题来阅读本文章: 1.Storm只支持什么传输 2.通过什么配置,可以更改Zookeeper默认端口 3.Storm UI必须和Storm Nimbus部署在同一台机器上,UI无法正常工 ...

  2. 大数据篇:DolphinScheduler-1.2.0.release安装部署

    大数据篇:DolphinScheduler-1.2.0.release安装部署 1 配置jdk #查看命令 rpm -qa | grep java #删除命令 rpm -e --nodeps xxx ...

  3. 微服务(入门一):netcore安装部署consul

    环境准备  vs开发环境:vs2017 consul版本: 1.4.4 netcore版本:2.1 安裝Consul  1.从官网下载consul到本地,选择系统对应的版本进行下载到本地,下载地址:h ...

  4. kafka_2.11-2.0.0_安装部署

    参考博文:kafka 配置文件参数详解 参考博文:Kafka[第一篇]Kafka集群搭建 参考博文:如何为Kafka集群选择合适的Partitions数量 参考博文:Kafka Server.prop ...

  5. elasticsearch+kibana+metricbeat安装部署方法

    elasticsearch+kibana+metricbeat安装部署方法 本文是elasticsearch + kibana + metricbeat,没有涉及到logstash部分.通过beat收 ...

  6. 【原创 Hadoop&Spark 动手实践 1】Hadoop2.7.3 安装部署实践

    目录: 第一部分:操作系统准备工作: 1. 安装部署CentOS7.3 1611 2. CentOS7软件安装(net-tools, wget, vim等) 3. 更新CentOS7的Yum源,更新软 ...

  7. hadoop2 Ubuntu 下安装部署

    搭建Hadoop环境( 我以hadoop 2.7.3 为例, 系统为 64bit Ubuntu14.04 ) hadoop 2.7.3 官网下载 , 选择自己要安装的版本.注意每个版本对应两个下载选项 ...

  8. hadoop2.5.2安装部署

    0x00 说明 此处已经省略基本配置步骤参考Hadoop1.0.3环境搭建流程,省略主要步骤有: 建立一般用户 关闭防火墙和SELinux 网络配置 0x01 配置master免密钥登录slave 生 ...

  9. Hadoop1.0.3安装部署

    0x00 大数据平台相关链接 官网:http://hadoop.apache.org/ 主要参考教程:http://www.cnblogs.com/xia520pi/archive/2012/05/1 ...

随机推荐

  1. Javascript随记

    一, 理解Javascript的运行环境概念 function say(msg) { alert(this + ' says ' + msg); } var tt = { message: 'Jame ...

  2. oracle中将自建用户下的所有表删除

    select 'drop table '||table_name||' ;' from user_tables;select 'drop sequence '||sequence_name||' ;' ...

  3. Phylab2.0 文档汇总

    实验数据处理脚脚本 编写规范 调用框架以及测试文件规范 脚本调用约定 API文档 用户部分后端请求说明 文章评论区部分后端请求说明 测试报告 测试报告集

  4. connect mysql

    #!/usr/bin/python# -*- coding:utf-8 -*- import MySQLdb db = MySQLdb.connect("127.0.0.1", & ...

  5. 优化Table View

    优化Table View Table view需要有很好的滚动性能,不然用户会在滚动过程中发现动画的瑕疵. 为了保证table view平滑滚动,确保你采取了以下的措施: 正确使用`reuseIden ...

  6. Python Day5

    模块 模块,用一砣代码实现了某个功能的代码集合. 类似于函数式编程和面向过程编程,函数式编程则完成一个功能,其他代码用来调用即可,提供了代码的重用性和代码间的耦合.而对于一个复杂的功能来,可能需要多个 ...

  7. reset.css css重置公共样式

    @charset "utf-8";/*Css Document*/ /*! * @名称:reset.css * @功能:1.重设浏览器默认样式 * 2.设置通用原子类 *//* 防 ...

  8. 百度地图API简单应用

    在做移动端应用时经常用到百度地图API,百度API有强大的示例和文档,开发之前去百度相关网站注册密钥,很块博主只花了几分钟 百度地图API范例 百度地图API文档说明 例子1:输入特定关键字绘制地图标 ...

  9. [Head First设计模式]山西面馆中的设计模式——装饰者模式

    引言 在山西面馆吃鸡蛋面的时候突然想起装饰者这个模式,觉得面馆这个场景跟书中的星巴兹咖啡的场景很像,边吃边思考装饰者模式.这里也就依葫芦画瓢,换汤不换药的用装饰者模式来模拟一碗鸡蛋面是怎么出来的吧.吃 ...

  10. [Nhibernate]SchemaExport工具的使用(二)——创建表及其约束、存储过程、视图

    目录 写在前面 文档与系列文章 表及其约束 存储过程 视图 总结 写在前面 由于一直在山西出差,有几天没更新博客了.昨晚回到家,将博客园最近三天更新的文章搜集了一下,花费了半天的时间,看了看,有些文章 ...