1. 在虚拟机中新建一个机器。

  2. 设置静态IP

  3. 将修改/etc/hosts

    192.168.102.10 master
    192.168.102.11 slave-1
    192.168.102.12 slave-2
    192.168.102.13 slave-3
    192.168.102.14 slave-4

    在然后在其他节点hosts文件中增加

    192.168.102.14 slave-4
  4. 修改hostname 命令hostnamectl set-hostname Slave-4

    通过hostname命令查看修改结果

  5. 关闭防火墙

    systemctl stop firewalld.service      //停止firewall
    systemctl disable firewalld.service //禁止firewall开机启动
    systemctl status firewalld.service //查看防火墙状态
  6. 节点免密码登录

    使用命令

    ssh-keygen -t rsa(一路回车)

    生成id_rsa(私钥)、id_rsa.pub(公钥)然后

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    将Salve-4的公钥拷贝到其他节点上,再将其他节点的公钥拷贝到Salve-4上

    Salve-4节点上执行
    ssh-copy-id -i Master
    ssh-copy-id -i slave-1
    ssh-copy-id -i slave-2
    ssh-copy-id -i slave-3(这里没有执行,待把slave-3修复了再执行)

    在其他节点执行

    ssh-copy-id -i  slave-4

    再用ssh验证相互之间的免密码登陆

    ssh slave-4(master,等hostname)
  7. 在/usr/local/hadoop2.7.2/etc/hadoop/slaves 中增加slave-4

  8. 将其他一个节点的/etc/profile,/usr/local目录下文件传输到slave-4中,目录位置不变

    scp -r /etc/profile root@slave-4:/etc/
    scp -r /usr/local root@slave-4:/usr/
  9. 修改系统默认JDK

    update-alternatives --install /usr/bin/java java /usr/local/jdk1.8/bin/java 300
    update-alternatives --install /usr/bin/java javac /usr/local/jdk1.8/bin/javac 300
    update-alternatives --install /usr/bin/jar jar /usr/local/jdk1.8/bin/jar 300
    update-alternatives --config java
    然后选择
    4 /usr/local/jdk1.8/bin/java
    这一行
  10. 在虚拟磁盘扩容,已经实现了虚拟机中的扩容(分区,创建文件系统,挂载),这里实现HDFS中识别出增加的容量

    删除hdfs-site.xml中dfs.data.dir指定的文件

    <property>
    <name>dfs.data.dir</name>
    <value>/usr/local/data</value>
    <description>datanode上数据块的物理存储位置</description>
    </property>

    删除core-site.xml中hadoop.tmp.dir指定的文件,删除/usr/local/hadoop 放着各个节点ID会不一样。

    <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop/tmp</value>
    </property>

    格式化namenode

    hdfs namenode -format

    格式化完毕,原来的数据全部被清空了。产生了一个新的hdfs

    查看信息

     hdfs dfsadmin -report

11.第10个步骤可能是多余的没必要

在增加磁盘的情况下,只需要在挂载完硬盘之后修改hdfs-site.xml文件即可。

<property>
<name>dfs.data.dir</name>
<value>/usr/local/data,/newdisk/hadoop-data/</value>
<description>datanode上数据块的物理存储位置</description>

Hadoop集群 增加节点/增加磁盘的更多相关文章

  1. hadoop集群的节点启动问题

    start-all.sh 启动集群时,NameNode或DataNode节点启动不了,但之前可以启动. 查看hadoop中hdfs-site.xml配置文件 <property> < ...

  2. Hadoop记录-Hadoop集群添加节点和删除节点

    1.添加节点 A:新节点中添加账户,设置无密码登陆 B:Name节点中设置到新节点的无密码登陆 C:在Name节点slaves文件中添加新节点 D:在所有节点/etc/hosts文件中增加新节点(所有 ...

  3. spark、hadoop集群添加节点

    1.首先添加hdfs的节点,将安装包上传到服务器,设置好环境变量.配置文件按之前spark集群搭建的那里进行修改. 设置完成后,要对新节点新型格式化: # hdfs  dfs  namenode  - ...

  4. Hadoop集群中节点角色定义

    Hadoop分别从两个角度将主机划分为两种角色. 最基本的划分原则为Master和Slave,即主人和奴隶: 第一,从HDFS的角度,将主机划分为NameNode和DataNode(在分布式文件系统中 ...

  5. 实战CentOS系统部署Hadoop集群服务

    导读 Hadoop是一个由Apache基金会所开发的分布式系统基础架构,Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS.HDFS有高 ...

  6. Eclipse连接Hadoop集群及WordCount实践

    声明:作者原创,转载注明出处. 作者:帅气陈吃苹果 一.环境准备 1.JDK安装与配置 2.Eclipse下载 下载解压即可,下载地址:https://pan.baidu.com/s/1i51UsVN ...

  7. Hadoop概念学习系列之Hadoop集群动态增加新节点或删除已有某节点及复制策略导向 (四十三)

    不多说,直接上干货! hadoop-2.6.0动态添加新节点 https://blog.csdn.net/baidu_25820069/article/details/52225216 Hadoop集 ...

  8. hadoop集群增加新节点

    上次hadoop集群一块数据盘报警, 提交工单后维修人员更换硬盘 服务器是dell r720的, 8盘位, 蛋疼的是这些硬盘都是做的单盘raid1,维修人员说必须关机导入硬盘才能正常使用 (服务器就这 ...

  9. hadoop 集群配置--增加减少新的机器不重启

    增加机器不重启操作如下: 首先,把新节点的 IP或主机名 加入主节点(master)的 conf/slaves 文件. 然后登录新的从节点,执行以下命令: $ cd path/to/hadoop $ ...

  10. Hadoop集群datanode磁盘不均衡的解决方案

    一.引言: Hadoop的HDFS集群非常容易出现机器与机器之间磁盘利用率不平衡的情况,比如集群中添加新的数据节点,节点与节点之间磁盘大小不一样等等.当hdfs出现不平衡状况的时候,将引发很多问题,比 ...

随机推荐

  1. Shiro 550反序列化漏洞分析

    Shiro 550反序列化漏洞分析 一.漏洞简介 影响版本:Apache Shiro < 1.2.4 特征判断:返回包中包含rememberMe=deleteMe字段. Apache Shiro ...

  2. Oracle配置tcps加密协议

    1.Oracle用户下操作,创建证书 mkdir /home/oracle/wallet orapki wallet create -wallet "/home/oracle/wallet& ...

  3. 将Oracle数据库数据每天备份恢复一次数据到另一台服务器上两份数据

    1.创建用户,授权,创建测试数据 创建用户 CREATE USER test identified by 123; 授权 grant dba to test; 创建测试数据 create table ...

  4. 熊猫分布密度制图(ArcPy实现)

    一.背景 大熊猫是我国国家级珍惜保护动物,熊猫的生存必须满足一定槽域(独占的猎食与活动范围)条件.因此,科学准确的分析熊猫的分布情况,对合理制定保护措施和评价保护成效具有重要意义. 二.目的 通过练习 ...

  5. 题解 [SBCOI2020] 一直在你身旁

    题目传送门 题目大意 给出一个长度为 \(n\) 的单调不减的序列,每次可以选出一个点,产生贡献 \(a_k\),我们可以得知我们需要找到的数是否大于 \(k\).问找到要找到的数最小花费. \(n\ ...

  6. PTA数据结构 习题2.1 简单计算器 (20分)

    习题2.1 简单计算器 (20分) 模拟简单运算器的工作.假设计算器只能进行加减乘除运算,运算数和结果都是整数,四种运算符的优先级相同,按从左到右的顺序计算. 输入格式: 输入在一行中给出一个四则运算 ...

  7. Google Style Guides

    Google Style Guides Google Style Guides Google 开源项目风格指南 (zh-google-styleguide.readthedocs.io)

  8. [源码解析] PyTorch如何实现前向传播(3) --- 具体实现

    [源码解析] PyTorch如何实现前向传播(3) --- 具体实现 目录 [源码解析] PyTorch如何实现前向传播(3) --- 具体实现 0x00 摘要 0x01 计算图 1.1 图的相关类 ...

  9. Scrum Meeting 13

    第13次例会报告 日期:2021年06月05日 会议主要内容概述: 团队成员均明确了下一步的目标,进度突飞猛进辣 一.进度情况 我们采用日报的形式记录每个人的具体进度,链接Home · Wiki,如下 ...

  10. Scrum Meeting 0529

    零.说明 日期:2021-5-29 任务:简要汇报七日内已完成任务,计划后两日完成任务 一.进度情况 组员 负责 七日内已完成的任务 后两日计划完成的任务 困难 qsy PM&前端 完成后端管 ...