Hadoop的分布式安装

hadoop安装伪分布式以后就可以进行启动和停止操作了。

首先需要格式化HDFS分布式文件系统。hadoop namenode -format

然后就可以启动了。start-all.sh

此时使用jps命令可以查看启动的5个守护进程

也可以通过web查看是否启动成功。

localhost:50070查看 NameNode 节点,localhost:50030查看 JobTracker 节点

停止命令。stop-all.sh

一、配置IP

这是使用了两台已经配置好 hadoop 单机环境的 Ubuntu

Ubuntu_master:192.168.1.3

ubuntu_slave:192.168.1.6

二、配置主机名及 hosts 文件

为了能使用 登录以及 ping 更简单

我们在这里配置地址及主机名到 hosts 文件

在 /etc/hosts 文件中添加以下内容:

192.168.1.3 master

192.168.1.6 slave

同时使用 nmtui 命令修改自己的主机名,重启生效

三、配置 hadoop 环境变量

使用 vim ~/.bashrc 编辑用户环境配置文件

在该文件中加入下列内容:

export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin

然后使用 source ~/.bashrc 使其生效

用 hadoop version 命令检查上述操作是否生效

四、配置 hadoop 配置文件

1、slaves 将数据节点主机名写入其中

2、core-site.xml 配置文件

3、hdfs-site.xml 配置文件

4、mapred-site.xml 配置文件

5、yarn-site.xml 配置文件

五、将配置文件拷贝至各 slave 节点

在 /usr/local/hadoop 目录下

tar -zcvf etc.tar.gz etc 将文件夹打包

scp etc.tar.gz slave:/home 传送

此时报权限错误而无法传送

原因是:当前用户没有在 /home 下的写权限

当我用 root 身份登录时,发现依然不行

一直报访问拒绝错误

原因是:ssh 设置不可使用 root 什么登录

解决办法:/etc/ssh/sshd_config 配置文件中

PermitRootLogin 的值改为 yes

这里我们使用 scp etc.tar.gz slave:/home/haojun 命令传送

然后 ssh slave 登录到 slave

然后 rm -rf /usr/local/hadoop/etc 删除原配置文件

然后 tar -zxvf etc.tar.gz -C /usr/local/hadoop 解压新配置文件

此时应确保解压后的权限与当前用户一致,否则应

sudo chown -R haojun:haojun /usr/local/hadoop/etc 更改权限

六、执行 NameNode 初始化并关闭防火墙

在 master 节点上 执行

hdfs namenode -format 即可

出现类似下面信息即表示成功:



如果没有,则查看上面的执行日志,以更改错误

多数错误是配置文件书写错误!也就是笔误!!

命令 作用

sudo ufw status 查看防火墙状态

sudo ufw enable 激活防火墙

sudo ufw disable 关闭防火墙

以上三条命令适用于发行版为 Ubuntu 的 Linux

七、启动 hadoop

start-dfs.sh 启动第一、二名称节点

start-yarn.sh 启动资源管理器

mr-jobhistory-daemon.sh start historyserver 启动工作历史服务

jps 查看节点启动情况

hdfs dfsadmin -report 查看数据节点启动情况

正常情况下,master 应该有如下图,slave 亦是。

此时亦可通过web访问:http://master:50070/ 查看各节点启动情况

补充:如无法正常启动,还可通过删除 tmp、logs 等文件夹并重新初始化 NameNode 节点的方式排错。

八、执行分布式实例

8.1创建 HDFS 上的用户目录

hdfs dfs -mkir -p /user/hadoop

8.2创建 input 文件夹

hdfs dfs -mkidr input

此处报文件不存在错误

再次开机时以及可以。

可能是之前某些操作没有执行成功,或者命令打错根本没有执行。

hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml input

拷贝样例文件

hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output ‘dfs[a-z.]+’

执行命令

hdfs dfs -cat output/*

即可查看如下图结果

stop-yarn.sh

stop-dfs.sh

mr-jobhistory-daemon.sh stop historyserver

以上是关闭命令

Hadoop安装教程_分布式的更多相关文章

  1. Hadoop安装教程_伪分布式

    文章更新于:2020-04-09 注1:hadoop 的安装及单机配置参见:Hadoop安装教程_单机(含Java.ssh安装配置) 注2:hadoop 的完全分布式配置参见:Hadoop安装教程_分 ...

  2. Hadoop安装教程_单机/伪分布式配置_CentOS6.4/Hadoop2.6.0

    Hadoop安装教程_单机/伪分布式配置_CentOS6.4/Hadoop2.6.0 环境 本教程使用 CentOS 6.4 32位 作为系统环境,请自行安装系统.如果用的是 Ubuntu 系统,请查 ...

  3. 转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到, ...

  4. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    摘自: http://www.cnblogs.com/kinglau/p/3796164.html http://www.powerxing.com/install-hadoop/ 当开始着手实践 H ...

  5. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04(转)

    http://www.powerxing.com/install-hadoop/ http://blog.csdn.net/beginner_lee/article/details/6429146 h ...

  6. 【转】Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    原文链接:http://dblab.xmu.edu.cn/blog/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单, ...

  7. Hadoop安装教程_单机/伪分布式配置

    环境 本教程使用 CentOS 6.4 32位 作为系统环境,请自行安装系统(可参考使用VirtualBox安装CentOS).如果用的是 Ubuntu 系统,请查看相应的 Ubuntu安装Hadoo ...

  8. 新手推荐:Hadoop安装教程_单机/伪分布式配置_Hadoop-2.7.1/Ubuntu14.04

    下述教程本人在最新版的-jre openjdk-7-jdk OpenJDK 默认的安装位置为: /usr/lib/jvm/java-7-openjdk-amd64 (32位系统则是 /usr/lib/ ...

  9. Hadoop安装教程_集群/分布式配置

    配置集群/分布式环境 集群/分布式模式需要修改 /usr/local/hadoop/etc/hadoop 中的5个配置文件,更多设置项可点击查看官方说明,这里仅设置了正常启动所必须的设置项: slav ...

随机推荐

  1. Redis集群搭建及选举原理

    redis集群简述 哨兵模式中如果主从中master宕机了,是通过哨兵来选举出新的master,在这个选举切换主从的过程,整个redis服务是不可用的.而且哨兵模式中只有一个主节点对外提供服务,因此没 ...

  2. 初识Flask、快速启动

    目录 一.初识Flask 1.1 什么是flask? 1.2 为什么要有flask? 二.Flask快速启动 一.初识Flask 1.1 什么是flask? Flask 本是作者 Armin Rona ...

  3. Python - 变量的作用域

    变量作用域 Python能够改变变量作用域的代码段是 def . class . lamda. if/elif/else.try/except/finally.for/while 并不能涉及变量作用域 ...

  4. 一般人不知道的Flask框架SQLAlchemy的那些事

    目录 SQLAlchemy 1.介绍 2.简单使用(能创建表,删除表,不能修改表) 3.一对多关系 4.多对多关系 5.操作数据表 6.基于scoped_session实现线程安全 7.基本增删查改 ...

  5. Git在公司内部的使用规范

    Git在公司内部的使用规范 目录 Git在公司内部的使用规范 1.版本定义 2.系统开发环境 3. 分支定义 4.Commit 日志规范 5.开发工作流程: 5.1.常规分支debug流程: 5.2. ...

  6. 包和访问权限修饰符,.单例设计模式,.Object类常用方法,.内部类

    1.包和访问权限修饰符 1.1 包 为什么要导包? 将字节码文件(.class)文件进行分类存放 --->包 其实就是文件夹 import java.util.Arrays; 包的划分规则 方案 ...

  7. 【python 数据结构】相同某个字段值的所有数据(整理成数组包字典的形式)

    class MonitoredKeywordMore(APIView): def post(self, request): try: # 设置原生命令并且请求数据 parents_asin = str ...

  8. Centos单机部署Elasticsearch7.2集群

    配置node0 # ======================== Elasticsearch Configuration ========================= # # NOTE: E ...

  9. 字节转换函数 htonl*的由来与函数定义...

    字节转换字符由来: 在网络上面有着许多类型的机器,这些机器在表示数据的字节顺序是不同的, 比如i386芯片是低字节在内存地址的低端, intel处理器将32位的整数分4个连续的字节,并以字节序1-2- ...

  10. Jmeter接口测试之案例实战(十一)

    在前面的知识体系中详细的介绍了Jmeter测试工具在接口自动化测试中的基础知识,那么今天更新的文章主要是对昨晚的上课内容做个总结. 首先来看Jmeter测试工具在图片上传中的案例应用.首先结合互联网产 ...