Hadoop搭建过程

前期环境搭建主要分为软件的安装与配置文件的配置,集成的东西越多,配置项也就越复杂。

Hadoop集成了一个动物园,所以配置项也比较多,且每个版本之间会有少许差异。

安装的方式有很多,各个版本lunix源的配置也不同,我才用的是直接下载tar包进行安装,这样的好处是版本容易控制。

下载软件:

官网下载时会标明相匹配的版本:

1、hadoop本体2.8.0

2、Scala,spark的原生语言,依赖于此环境

3、Spark,spark依赖hadoop的组件(忘了,单跑也可以)

系统环境:Ubuntu16.04

 

JRE环境:1.8(e)

配置jRE环境变量:

vim /etc/profile

最后加上,:是拼接的意思,拼接到path

export JAVA_HOME=/usr/jdk8/jdk1.8.0_144

export JRE_HOME=$JAVA_HOME/jre

export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

export PATH=$JAVA_HOME/bin:$PATH

Java -version 成功

 

 

1、修改主机名

修改主机名,配置host,设置静态ip:

1.修改主机名:

主节点主机名称:Hadoop-host,IP地址:192.168.1.200

//由于搭建standalone测试,暂未配置子节点

Host:

修改/etc/host、hostname文件,注意请在host文件中一并添加hadoopnode1机器的IP地址。

192.168.1.200 Hadoop-host //192.168.1.201 hadoopnode1

::1           localhost

立即生效:sudo /etc/init.d/networking restart

Ip设置(e):

#sudo vim /etc/network/interfaces

auto eth0

iface eth0 inet static

address 192.168.0.117

gateway 192.168.0.1 #这个地址你要确认下网关是不是这个地址

netmask 255.255.255.0

network 192.168.0.0

broadcast 192.168.0.255

dns-nameservers 8.8.8.8

 

2、关闭防火墙

 

原因:内部系统,不用考虑安全问题;各个节点之间的配合需要开放的环境。

乌班图ufw disable
其它版本的lunix好像是配置iptable关闭

配置免密码登录:公钥私钥。

ssh-keygen -t rsa -P “”
实现本地登录免密码登录,因为搭建的时候,我们做了对其他主机的免密码登录,但是本地ssh连接本地没有

所以,讲本地的公钥导入私钥就可以

cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

非本地节点将非本地公钥导入私钥?

 

3、安装Hadoop

Tar -xvf 安装包名

Tip:解压x压缩z

 

解压后放入/usr/local/hadoop文件夹下。

创建hdfs以及其他组件需要的文件夹:

#mkdir tmp           hadoop临时文件

#mkdir hdfs/name    hdfsNODE

#mkdir hdfs/data       hdfsDATA

配置环境变量:

vim /etc/profile

加入:

export HADOOP_HOME=/usr/hadoop/hadoop-2.8.0

export PATH=$PATH:$HADOOP_HOME/bin

Source,立即生效

现在执行hadoop version
查看安装是否成功。

4、配置Hadoop

主要是几个配置文件:

A:hadoop-2.8.0/etc/hadoop/hadoop-env.sh

配置vim hadoop-env.sh文件 添加JAVA_HOME位置

source立即生效

B:hadoop-2.8.0/etc/hadoop/yarn-env.sh  -此版本没有

C:hadoop-2.8.0/etc/hadoop/core-site.xml 

D:hadoop-2.8.0/etc/hadoop/hdfs-site.xml 

E:hadoop-2.8.0/etc/hadoop/mapred-site.xml 

F:hadoop-2.8.0/etc/hadoop/yarn-site.xml

1、=========core-site.xml

<configuration>

      刚才新建的临时文件目录位置:

    <property>   

        <name>hadoop.tmp.dir</name>   

        <value>/usr/hadoop/tmp</value>

        <final>true</final>

        <description>A base for other temporary directories.</description>

    </property>

Hdfs地址与端口

    <property>

        <name>fs.default.name</name>

        <value>hdfs://192.168.1.200:9000</value>

    <!-- hdfs://Master.Hadoop:22-->

            <final>true</final>

    </property>

缓存文件的大小

    <property>

         <name>io.file.buffer.size</name>

         <value>131072</value>

    </property>

    </configuration>

2===========hdfs-site.xml

<configuration>

Hdfs节点个数

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

     刚才建立的目录

<property>

<name>dfs.name.dir</name>

<value>/usr/local/hadoop/hdfs/name</value>

</property>

刚才建立的目录 

<property>

<name>dfs.data.dir</name>

<value>/usr/local/hadoop/hdfs/data</value>

</property>

 第二节点的位置???

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hadoop-host:9001</value>

</property>

开启网络模式???

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

许可,权限???   

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

3、mapred-site.xml

//mapreduce通过yarn配置(Hadoop 资源管理器

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

4、yarn-site.xml

这个文件配置好各自的端口就行

<property>

<name>yarn.resourcemanager.address</name>

<value>hadoop-host:18040</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>hadoop-host:18030</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>hadoop-host:18088</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>hadoop-host:18025</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>hadoop-host:18141</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

 

5、初始化

 

hadoop namenode -format

17/09/13 05:01:45 INFO common.Storage: Storage directory /usr/local/hadoop-2.8.0/hdfs/name has been successfully formatted.
17/09/13 05:01:45 INFO namenode.FSImageFormatProtobuf: Saving image file /usr/local/hadoop-2.8.0/hdfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
17/09/13 05:01:45 INFO namenode.FSImageFormatProtobuf: Image file /usr/local/hadoop-2.8.0/hdfs/name/current/fsimage.ckpt_0000000000000000000 of size 321 bytes saved in 0 seconds.
17/09/13 05:01:45 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
17/09/13 05:01:45 INFO util.ExitUtil: Exiting with status 0

17/09/13 05:01:45 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at Hadoop-host/127.0.1.1
************************************************************/

启动  sudo sbin/start-all.sh

输入http://localhost:50070/
查看运行情况。

【安装】Hadoop2.8.0搭建过程整理版的更多相关文章

  1. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA

    如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...

  2. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二)安装hadoop2.9.0

    如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...

  3. 二、Ubuntu14.04下安装Hadoop2.4.0 (伪分布模式)

    在Ubuntu14.04下安装Hadoop2.4.0 (单机模式)基础上配置 一.配置core-site.xml /usr/local/hadoop/etc/hadoop/core-site.xml ...

  4. 一、Ubuntu14.04下安装Hadoop2.4.0 (单机模式)

    一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创 ...

  5. Ubuntu 14.04下安装Hadoop2.4.0 (单机模式)

    转自 http://www.linuxidc.com/Linux/2015-01/112370.htm 一.在Ubuntu下创建Hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增 ...

  6. centos6.6安装hadoop-2.5.0(五、部署过程中的问题解决)

    操作系统:centos6.6 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz 一.安装过程中会出现WAR ...

  7. 基于hadoop2.6.0搭建5个节点的分布式集群

    1.前言 我们使用hadoop2.6.0版本配置Hadoop集群,同时配置NameNode+HA.ResourceManager+HA,并使用zookeeper来管理Hadoop集群 2.规划 1.主 ...

  8. ubuntu14.04 安装 hadoop2.4.0

    转载:ubuntu搭建hadoop-Ver2.6.0完全分布式环境笔记 自己在搭建hadoop平台时,碰到一些困难,按照该博文解决了问题,转载一下,作为记录. 2 先决条件 确保在你集群中的每个节点上 ...

  9. 安装hadoop2.6.0伪分布式环境

    集群环境搭建请见:http://blog.csdn.net/jediael_lu/article/details/45145767 一.环境准备 1.安装linux.jdk 2.下载hadoop2.6 ...

随机推荐

  1. Qt 绘制平滑曲线

    本文介绍在 Qt 中绘制平滑曲线的实现,调用下面的函数 SmoothCurveGenerator::generateSmoothCurve(points) 即可.默认曲线的 2 个顶点之间被分割为 1 ...

  2. C/S和B/S两种架构区别与优缺点分析

    C/S和B/S,是再普通不过的两种软件架构方式,都可以进行同样的业务处理,甚至也可以用相同的方式实现共同的逻辑.既然如此,为何还要区分彼此呢?那我们就来看看二者的区别和联系. 一.C/S 架构 1. ...

  3. Laravel 5.2 中多用户认证实现(前台和后台登录)

    Laravel 5.2中多用户认证支持,即同时允许不同数据表用户(如前台用户.后台用户.app用户等)登录认证.下面我们就来简单介绍多用户登录及注册功能实现. 1.生成认证脚手架 首先我们使用Lara ...

  4. MySql 5.7 重置root密码

    一.以安全模式登录 # Stop MySQL sudo service mysql stop # Make MySQL service directory. sudo mkdir -p /var/ru ...

  5. WCF Rest用法

    GET GET单参数 服务器 [OperationContract] string GetOneParameter(string value); [WebInvoke(Method = "G ...

  6. JDK源码阅读—ArrayList的实现

    1 继承结构图 ArrayList继承AbstractList,实现了List接口 2 构造函数 transient Object[] elementData; // 数组保存元素 private i ...

  7. C# WebRequest WebResponse的使用

    using System;using System.Collections.Generic;using System.ComponentModel;using System.Data;using Sy ...

  8. #467 – 使用UniformGrid 均分行和列(Use a UniformGrid for Evenly Spaced Rows and Columns)

    原文 #467 – 使用UniformGrid 均分行和列(Use a UniformGrid for Evenly Spaced Rows and Columns) UniformGrid 布局面板 ...

  9. WPF之MahApps.Metro下载和WPF学习经验

    这几天一直在学习WPF的东西.刚开始以为和Winform一样.拖拽控件来进行布局.结果远远没有那么简单.很多东西都需要自己写.包括样式.今天给大家分享一个 MahApps.Metro. 首先在NuGe ...

  10. Win10《芒果TV》商店版更新v3.2.4:新增跨年事件直播、电视台直播,新年快乐

    听说半个娱乐圈都来了,<芒果TV>UWP版邀您一起,于2016年12月31日晚,观看<湖南卫视2016·2017跨年演唱会>直播,请更新v3.2.4版,主要新增大事件直播和电视 ...