Date:20180827 Monday

目前市场hadoop主流版本是2.7.x系列,下面我们就以hadoop-2.7.3为例进行安装

安装前准备:

1.操作系统:cetos(6和7)

2.java版本:1.8

3.需要插件:wget, vim, openssh, ntpd

一.示列演示:

现在有3台机器,这里以centos6.8-64位为例,以minimal方式安装

192.168.1.101

192.168.1.102

192.168.1.103

3台节点上都先关闭防火墙

iptables –F

chkconfig iptables off

setenforce 0

vi /etc/selinux/config

SELINUX=disable

1,分别为3台节点更改主机名

hostname c1(临时修改)

的命令更改每一台主机的主机名,并更改配置文件

vi /etc/sysconfig/network  (永久修改)

HOSTNAME=c1

2. 这里我们把ip映射成主机名,执行如下命令

vi  /etc/hosts

在hosts文件中,如以下内容(主机和域名一役对应)

192.168.1.101 c1

192.168.1.102 c2

192.168.1.103  c3

保存退出

 3. 然后用root身份将hosts文件发送到其它节点上 (先在3个节点上安装openssh)

(scp安装命令)

yum install –y openssh-clients

scp /etc/hosts c2:/etc/

scp /etc/hosts c3:/etc/

在发送的过程中需要输入root用户的密码

二、配置免密码登录

然后在家目录下执行ssh-keygen  -t  rsa命令,不用管提示,一路回车,直到命令执行完成

再去其他节点执行相同的操作

例如:  ssh node2 (跳转到node2节点)

1. 生成本机的密钥对

ssh-keygen -t rsa -P ''

2. 复制秘钥去其他机器要免密登录的机器,如:

ssh-copy-id c1

ssh-copy-id c2

ssh-copy-id c3

ssh-copy-id localhost

3. 验证免密登录

ssh c2

ssh c3

ssh c1

三、安装JDK

下面这个地址下载JAVA8---jdk1.8

http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

8u131及其他版本地址,推荐下载8u131Oracle官方地址:

http://www.oracle.com/technetwork/java/javase/downloads/java-archive-javase8-2177648.html

yum install –y wget

JAVA环境的安装和设置在3台节点都要进行配置

1. rpm -ivh jdk-8u131-linux-x64.rpm

2. vi /etc/profile.d/java.sh

export JAVA_HOME=/usr/java/jdk1.8.0_131

3. 执行刚才设置过的脚本

source /etc/profile

4. 验证环境变量是否设置成功

env | grep JAVA

四、安装Hadoop和启动

下面这个地址下载hadoop2.7.3版本的64位官方镜像:

http://apache.fayea.com/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.3/

在c1下载后,输入以下命令解压

tar  -zxvf  hadoop-2.7.3.tar.gz

解压完后删除压缩包,并修改文件夹名称

mvhadoop-2.7.3  hadoop

mvhadoop /opt

3台节点

/etc/profile.d/hadoop.sh中加上hadoop的环境变量设置,即

vi /etc/profile.d/hadoop.sh

export  HADOOP_PREFIX=/opt/hadoop

export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin

source /etc/profile

env | grep HADOOP

进入c1 的hadoop的配置文件目录/opt/hadoop/etc/hadoop,键入命令及修改以下配置文件

1. hdfs的基础配置,hdfs-site.xml文件

mkdir –p /opt/hadoop/data/nd

mkdir –p /opt/hadoop/data/dd

vi /opt/hadoo/etc/hadoop/hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name> ##备份数

<value>3</value>

</property>

<property>

<name>dfs.namenode.name.dir</name> ##namemode 要先创建

<value>/opt/hadoop/data/nd</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/opt/hadoop/data/dd</value> ##datanode 要先创建

</property>

</configuration>

2. 配置core-site.xml文件

mkdir -p /opt/hadoop/tmp/hadoop

vi /opt/hadoop/etc/hadoop/core-site.xml

<configuration>

<!--指定hdfs的nameservice为namenode -->

<property>

<name>fs.defaultFS</name>

<value>hdfs://c1</value>

</property>

<!--指定hadoop临时目录,如果没有请手动创建-->

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/hadoop/tmp/hadoop</value>

</property>

</configuration>

3. 配置datanode所在的节点:c1 c2 c3

vi  /opt/hadoop/etc/hadoop/slaves   

c1

c2

c3

4. 配置secondarynamenode到c2上

vi hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>c2:50090</value>

</property>

</configuration>

5. 更改mapreduce配置文件,(在/opt/hadoop/etc/hadoop目录下)

mv  mapred-site.xml.template  mapred-site.xml

vi  mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

6. 配置Yarn

vi  yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>c1</value>

</property>

</configuration>

把配置完成的hadoop目录复制到所有节点

scp r /opt/hadoop c2:/opt

scp r /opt/hadoop c3:/opt

若只修改配置文件,则只需复制etc目录到所有节点,命令如下:

scp r /opt/hadoop/etc c2:/opt/hadoop

scp r /opt/hadoop/etc c3:/opt/hadoop

hdfs格式化和启动

格式化命令如下:

/opt/hadoop/bin/hdfs namenode format

启动hdfs:

/opt/hadoop/sbin/start-dfs.sh

关闭hdfs:

/opt/hadoop/sbin/stop-dfs.sh

启动yarn:

/opt/hadoop/sbin/start-yarn.sh

关闭yarn:

/opt/hadoop/sbin/stop-yarn.sh

启动任务历史服务器:

/opt/hadoop/sbin/mr-jobhistory-daemon.sh starthistoryserver

关闭历史服务器:

/opt/hadoop/sbin/mr-jobhistory-daemon.sh stophistoryserver

hadoop访问

在浏览器中访问—如:

http://192.168.106.148:50070

yarn访问:

http://192.168.106.148:8088

查错

1. jps命令来查询是否启动了namenode 和datanode等进程

查看相应进程的配置文件

2. 看/opt/hadoop/sbin/start-dfs.sh启动时的报错信息

3. 用/opt/hadoop/sbin/stop-dfs.sh停止所有节点服务,再尝试重启进程

4. netstat –tan查看各个端口,是否有监听,如50070等

5. 更改主节点配置后要copy配置去其他节点

6. 更改数据文件夹等内容的相关配置,要重新格式化hdfs,再启动进程

7. 查看/opt/hadoop/data/dd目录下的clusterid是否与namenode一致

注:可用jps查询程序启动情况

Bigdata--hadoop系列安装的更多相关文章

  1. 安装Hadoop系列 — 安装Hadoop

    安装步骤如下: 1)下载hadoop:hadoop-1.0.3     http://archive.apache.org/dist/hadoop/core/hadoop-1.0.3/   2)解压文 ...

  2. 安装Hadoop系列 — 安装JDK-8u5

    安装步骤如下: 1)下载 JDK 8 从http://www.oracle.com/technetwork/java/javasebusiness/downloads/ 选择下载JDK的最新版本 JD ...

  3. 安装Hadoop系列 — 安装Eclipse

    1.下载 Eclipse从 http://www.eclipse.org/downloads/index-developer.php下载合适版本,如:Eclipse IDE for C/C++ Dev ...

  4. 安装Hadoop系列 — 安装SSH免密码登录

    配置ssh免密码登录   1) 验证是否安装ssh:ssh -version显示如下的话则成功安装了OpenSSH_6.2p2 Ubuntu-6ubuntu0.1, OpenSSL 1.0.1e 11 ...

  5. 安装Hadoop系列 — eclipse plugin插件编译安装配置

    [一].环境参数 eclipse-java-kepler-SR2-linux-gtk-x86_64.tar.gz //现在改为eclipse-jee-kepler-SR2-linux-gtk-x86_ ...

  6. hadoop系列一:hadoop集群安装

     转载请在页首明显处注明作者与出处 http://www.cnblogs.com/zhuxiaojie/p/6384393.html 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据 ...

  7. Hadoop 系列(二)安装配置

    Hadoop 系列(二)安装配置 Hadoop 官网:http://hadoop.apache.or 一.Hadoop 安装 1.1 Hadoop 依赖的组件 JDK :从 Oracle 官网下载,设 ...

  8. hadoop系列二:HDFS文件系统的命令及JAVA客户端API

    转载请在页首明显处注明作者与出处 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据的一些内容,如hadoop,spark,storm,机器学习等. 当前使用的hadoop版本为2.6 ...

  9. Hadoop系列004-Hadoop运行模式(上)

    title: Hadoop系列004-Hadoop运行模式(上) date: 2018-11-20 14:27:00 updated: 2018-11-20 14:27:00 categories: ...

  10. Hadoop 系列(三)Java API

    Hadoop 系列(三)Java API <dependency> <groupId>org.apache.hadoop</groupId> <artifac ...

随机推荐

  1. python 案例一(电话铺)

    经过自己努力,做了一个简单的电话铺的录入和查询小程序,比较简单,喜欢的朋友可以练练手. 题目: 创建你自己的命令行 地址簿 程序.在这个程序中,你可以添加.修改.删除和搜索你的联系人(朋友.家人和同事 ...

  2. SVNKit学习——使用低级别的API(ISVNEditor接口)直接操作Repository的目录和文件(五)

      本文是参考官方文档的实现,官方wiki:https://wiki.svnkit.com/Committing_To_A_Repository 本文核心使用的是ISVNEditor这个接口直接对Re ...

  3. windows下安装配置RabbitMQ

    安装部署 1.当前环境以及参考资料出处 部署环境:windows server 2008 r2 enterprise 官方安装部署文档:http://www.rabbitmq.com/install- ...

  4. 使用NSURLConnection实现大文件断点下载

    使用NSURLConnection实现大文件断点下载 由于是实现大文件的断点下载,不是下载一般图片什么的.在设计这个类的时候本身就不会考虑把下载的文件缓存到内存中,而是直接写到文件系统. 要实现断点下 ...

  5. Python初学者第七天 字符串及简单操作

    7day 数据类型:字符串 1.定义 字符串是一个有序的字符的集合,用于储存和表示基本的文本信息.单.双.三引号之间的内容称之为字符串: a = ‘hello world!’ b = "你好 ...

  6. 记一次JVM调优之旅(斗争full gc)

    俗话说技多不压身,当年苦读<深入理解JVM>还专门整理了笔记,现在就用上了- 笔记 http://www.cnblogs.com/syjkfind/p/3901774.html [症状]  ...

  7. vsphere的P2V工具做的物理机迁移到虚拟机报错out of memory

     vsphere的P2V工具做的物理机迁移到虚拟机  迁移成功,但是启动报错  进入rescue模式后发现是sysctl.conf文件的参数设大了因为虚拟机的内存没有物理机内存大 kernel.shm ...

  8. Beta版本 为什么程序员总是分不清万圣节和圣诞节?因为 Oct 31 == Dec 25。

    Beta版本 软件的测试版本,经常在各类著名软件中的前期发布版本的后缀中可见,包括大名鼎鼎的windows系统,这个阶段的版本一直加入一些新的功能. 软件测试可分为alpha测试.beta测试和联合测 ...

  9. 中间人攻击之劫持登录会话(cookies)

    关于中间人攻击 中间人攻击(Man-in-the-MiddleAttack,简称"MITM攻击")是一种"间接"的入侵攻击,这种攻击模式是通过各种技术手段将受入 ...

  10. C# 解决组合优化问题

    Google Optimization Tools介绍 Google Optimization Tools(OR-Tools)是一款专门快速而便携地解决组合优化问题的套件.它包含了: 约束编程求解器. ...