安装好虚拟机,重命名为master

配置网卡

命令:vi /etc/sysconfig/network-scripts/ifcfg-en(按tab键)

这里要配置ip,网关,域名解析

例如我的

IPADDR=192.168.31.50

GATEWAY=192.168.31.2

DNS1=8.8.8.8

接着我们需要重启网卡才能生效

[root@localhost ~]# :service network restart

检验外网是否能连接

[root@localhost ~]#(以百度为例):ping www.baidu.com

(配置网卡完)

修改主机名(不能含有空格及特殊字符)

[root@localhost ~]# vi /etc/hostnname

添加映射(使三台虚拟机能够相互通信)

[root@localhost ~]# vi /etc/hosts

添加一个普通用户(admin),并设置密码

[root@localhost ~]# useradd admin

[root@localhost ~]# passwd admin

将我们添加的用户(admin)写入到配置文件中

[root@localhost ~]# visudo

将hadoop和jdk的压缩包上传并解压

[root@localhost software]#tar -zxf hadoop-2.5.0.tar.gz -C /opt/modoules/

[root@localhost software]#tar -zxf jdk-7u79-linux-x64.tar.gz -C /opt/modoules/

将压缩文件修改为普通(admin)用户,并开放所有权限

[root@localhost modoules]#chown admin:admin -R hadoop-2.5.0/

[root@localhost modoules]#chown admin:admin -R jdk1.7.0_79/

[root@localhost modoules]# chmod 777 -R hadoop-2.5.0/

[root@localhost modoules]# chmod 777 -R jdk1.7.0_79/

添加配置文件

[root@localhost modoules]# vi /etc/profile

在hadoop-2.5.0下创建一个文件,并进行更名和权限赋予

用途:(用来指定hadoop运行时产生文件的存储目录 )

[root@localhost hadoop-2.5.0]# mkdir -p data/tmp

[root@localhost hadoop-2.5.0]# chown admin:admin -R data

[root@localhost hadoop-2.5.0]# chown 777 -R data

切换至hadoop目录,进行配置文件的更改

[root@localhost hadoop-2.5.0]# cd ./etc/hadoop

我们需要修改的配置文件如下

[root@localhost hadoop]# vi hadoop-env.sh

[root@localhost hadoop]# vi yarn-env.sh

(#代表注释,需要进行删除,才能生效)

[root@localhost hadoop]# vi mapred-env.sh

(#代表注释,需要进行删除,才能生效)

[root@localhost hadoop]# vi core-site.xml

[root@localhost hadoop]# vi yarn-site.xml

[root@localhost hadoop]# vi hdfs-site.xml

对mapred-site.xml.template文件进行更名,再进行配置

[root@localhost hadoop]# mv mapred-site.xml.template mapred-site.xml

[root@localhost hadoop]# vi mapred-site.xml

[root@localhost hadoop]# vi slaves

关闭防火墙状态

[root@localhost ~]# systemctl stop firewalld.service

[root@localhost ~]# systemctl disable firewalld.service

[root@localhost selinux]# cd /etc/selinux

[root@localhost selinux]# vi config

查看防火墙状态(查看之前先进行重启,否则不生效)

[root@localhost ~]# sestatus

克隆两台机器(虚拟机必须处于关机状态才能克隆,此外,选择完整克隆,不要链接克隆)

(并对另外两台网卡的ip,主机名做相应的更改)

(否则三台机器会出现ip冲突,或者意外报错)

master(主节点)

slave1(从节点)

slave2(从节点)

三台机器配置完成

设置免密登录

(让三台机器进行无密钥通信)最好是用普通用户

[root@master ~]# su admin

[admin@master root]$ ssh-keygen(三次回车)

[admin@master root]$ ssh copy-id master

(以下操作会问:是否愿意给密钥给xxx,回答yes,其他机器皆如此)

同意之后它会要求进行密码的验证(如果三次输入密码错误,将会自动退出并进行从新输入)

(说明密钥已成功给出)

[admin@master root]$ ssh-copy-id slave1

(说明密钥已成功给出)

(说明密钥已成功给出)

slave1,slave2需要重复以上操作

(否则三台机器会因为没有共同的密钥,从而导致无法访问)

切换目录,开始准备启动hadoop

[admin@master root]$ cd /opt/modoules/hadoop-2.5.0

进行格式化(只能操作一次,除非是配置文件错误,才能进行二次格式化,否则会出现一大堆的报错信息)

[admin@master hadoop-2.5.0]$ bin/hdfs namenode -format

格式化成功

(只能出现INFO,如果是error,expectation说明配置文件发生异常,需要返回进行检查并做相应的更改,不要忘记更改之后要进行格式化)

启动dfs

[admin@master hadoop-2.5.0]$ sbin/start-dfs.sh

(显示如下进程说明启动成功)

启动yarn

[admin@slave1 hadoop-2.5.0]$ sbin/statr-yarn.sh

用jps查看MapReduce的进程

(以上就是hadoop的搭建)

查看能否访问web页面

(active提示页面是可用,查看内存是否正常,如果是0说明非正常状态)

查看我们的datenode节点是否有三台虚拟机,如果只有1台或2台说明集群未能启动

如何快速搭建hadoop集群的更多相关文章

  1. VMware 克隆linux后找不到eth0(学习hadoop,所以想快速搭建一个集群)

    发生情况:      由于在学习hadoop,所以想快速搭建一个集群出来.所以直接在windows操作系统上用VMware安装了CentOS操作系统,配置好hadoop开发环境后,采用克隆功能,直接克 ...

  2. 环境搭建-Hadoop集群搭建

    环境搭建-Hadoop集群搭建 写在前面,前面我们快速搭建好了centos的集群环境,接下来,我们就来开始hadoop的集群的搭建工作 实验环境 Hadoop版本:CDH 5.7.0 这里,我想说一下 ...

  3. 使用Windows Azure的VM安装和配置CDH搭建Hadoop集群

    本文主要内容是使用Windows Azure的VIRTUAL MACHINES和NETWORKS服务安装CDH (Cloudera Distribution Including Apache Hado ...

  4. virtualbox 虚拟3台虚拟机搭建hadoop集群

    用了这么久的hadoop,只会使用streaming接口跑任务,各种调优还不熟练,自定义inputformat , outputformat, partitioner 还不会写,于是干脆从头开始,自己 ...

  5. 搭建Hadoop集群 (三)

    通过 搭建Hadoop集群 (二), 我们已经可以顺利运行自带的wordcount程序. 下面学习如何创建自己的Java应用, 放到Hadoop集群上运行, 并且可以通过debug来调试. 有多少种D ...

  6. 搭建Hadoop集群 (一)

    上面讲了如何搭建Hadoop的Standalone和Pseudo-Distributed Mode(搭建单节点Hadoop应用环境), 现在我们来搭建一个Fully-Distributed Mode的 ...

  7. 搭建Hadoop集群 (二)

    前面的步骤请看  搭建Hadoop集群 (一) 安装Hadoop 解压安装 登录master, 下载解压hadoop 2.6.2压缩包到/home/hm/文件夹. (也可以从主机拖拽或者psftp压缩 ...

  8. Linux下搭建Hadoop集群

    本文地址: 1.前言 本文描述的是如何使用3台Hadoop节点搭建一个集群.本文中,使用的是三个Ubuntu虚拟机,并没有使用三台物理机.在使用物理机搭建Hadoop集群的时候,也可以参考本文.首先这 ...

  9. Hadoop入门进阶步步高(五)-搭建Hadoop集群

    五.搭建Hadoop集群 上面的步骤,确认了单机能够运行Hadoop的伪分布运行,真正的分布式运行无非也就是多几台slave机器而已,配置方面的有一点点差别,配置起来就很easy了. 1.准备三台se ...

随机推荐

  1. 初识Flask——基于python的web框架

    参考教程链接: https://dormousehole.readthedocs.io/en/latest/ (主要)https://www.w3cschool.cn/flask/ 目录: 1.写了一 ...

  2. .Net Core ABP应用如何在阿里云Linux Docker中开启Https

    .Net Core应用开启Https本身就有很多种方式:1.代码配置2.环境变量3.反向代理 这里主要记录下阿里云的ECS,加阿里云免费的SSL证书,通过程序代码,如何进行配置. 首先从阿里云下载证书 ...

  3. Windows的API功能查询

    在逆向分析时,一些Windows的API函数往往是我们的突破口.但这些函数很难记得一清二楚,以下是我的查找办法,做个小结. 官网 https://docs.microsoft.com/en-us/wi ...

  4. 傲视Kubernetes(二):Docker镜像搭建与本地Kubernetes环境搭建

    主要内容: 1.Docker与Kubernetes的关系 2.SpringBoot微服务的Docker镜像创建 3.Kubernetes本地环境搭建 一.Docker与Kubernetes的关系 在说 ...

  5. 【Electron Playground】Electron 窗口问题汇总

    作者:Kurosaki 本节旨在汇总在开发Electron 窗口可能遇到的问题,做一个汇总,后续遇到问题会持续更新. 1. 窗口闪烁问题. const { BrowserWindow } = requ ...

  6. learn Docker from scratch (1)

    一.前言 Docker容器一个很有趣的东西,下面链接内容适合docker的入门非常棒! 链接如下: http://www.ruanyifeng.com/blog/2018/02/docker-tuto ...

  7. 在Linux下下载RPM包

    在Linux下下载RPM包,但是不安装 在工作中经常会遇到离线安装RPM包的情况,下面是下载RPM包的方法 # 使用yum下载RPM包 yum -y install --downloadonly &l ...

  8. [水题日常]UVA1625 Color Length

    来整理一下思路- 一句话题意:给两个大写字母的序列,每次取出其中一个数列的第一个元素放到新序列里面,对每个字母\(c\)记它的跨度\(L(c)\)为这个字母最后出现的位置-第一次出现的位置,求新序列所 ...

  9. 详细讲解docker容器和镜像的区别

    当我对Docker技术还是一知半解的时候,我发现理解Docker的命令非常困难.于是,我花了几周的时间来学习Docker的工作原理,更确切地说,是关于Docker统一文件系统(the union fi ...

  10. Web服务器-正则表达式-正则其他(3.1.3)

    @ 目录 其他api说明 关于作者 其他api说明 pattern = re.compile(r'\d+') m = pattern.match('6e812738712aaadad13') m.gr ...