相关链接

   Hadoop 完全分布式安装


0. 说明

  SecondaryNameNode 的作用  参考【待补充】

  在 Hadoop 完全分布式的基础之上配置

  将 SecondaryNameNode 配置到 s105 节点上

  集群规划如下

服务器主机名 ip 节点配置
s101 192.168.23.101 NameNode / ResourceManager 
s102 192.168.23.102 DataNode / NodeManager
s103 192.168.23.103 DataNode / NodeManager
s104 192.168.23.104 DataNode / NodeManager
s105 192.168.23.105 SecondaryNameNode

1. 配置 root 用户的 SSH 免密登陆

  1.1 在 s101 节点上切换到 root 用户

su root

  1.2 生成公私密钥对

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

  1.3 配置免密登陆(完成后退出 root 用户)

ssh-copy-id root@s101
ssh-copy-id root@s102
ssh-copy-id root@s103
ssh-copy-id root@s104
ssh-copy-id root@s105

2. 编写 xcall.sh 脚本

  说明

  xcall.sh 脚本编写是为了多个节点同时执行相同的命令

  xcall.sh 脚本如下:

#!/bin/bash

# for循环
for((i= ; i<=; i++)) ; do
# 更改文本颜色
tput setaf
# 输出以下文本
echo ==================== s$i $@ ===================
# 更改文本颜色
tput setaf
# ssh 远程登陆主机 s$i ,执行输入的参数的命令
ssh s$i $@
done

  为 xcall.sh 赋予可执行权限

chmod a+x xcall.sh

  编写完成之后,将其发送到 /usr/local/bin 下。

mv xcall.sh  /usr/local/bin

  创建 jps 软链接

  在 /usr/local/bin 中为 jps 创建软连接(每个服务器都要创建)

ln -s /soft/jdk/bin/jps /usr/local/bin/jps

3. 编写 xsync.sh 脚本

  说明

  xsync.sh 脚本编写是为了从主节点同步配置文件到子节点

  xsync.sh 脚本如下:

#!/bin/bash

# 指出当前用户名
name=`whoami`
# 指定文件所在文件夹名称
dir=`dirname $`
# 指定文件的文件名
filename=`basename $`
# 进入到dir中
cd $dir
# 得到当前目录的绝对路径
fullpath=`pwd` for((i= ; i<=; i++)) ; do
tput setaf
echo ==================== s$i $@ ===================
tput setaf
# 远程同步命令 l 保留软连接 r 递归文件夹
rsync -lr $filename "$name"@s"$i":$fullpath
done

  为 xsync.sh 赋予可执行权限

chmod a+x xsync.sh

  编写完成之后,将其发送到 /usr/local/bin 下。

mv xsync.sh  /usr/local/bin

  使用 root 用户权限在所有机器上安装 rsync

xcall.sh yum install -y rsync

4. 修改 & 分发配置文件

  4.1 修改配置文件 [ hdfs-site.xml ]

  位置在 /soft/hadoop/etc/hadoop/hdfs-site.xml

  添加配置

<property>
<name>dfs.namenode.secondary.http-address</name>
<value>s105:50090</value>
</property>

  4.2 分发配置文件

  删除其他节点的所有 hdfs-site.xml

ssh s102 rm -r /soft/hadoop/etc/hadoop/hdfs-site.xml
ssh s103 rm -r /soft/hadoop/etc/hadoop/hdfs-site.xml
ssh s104 rm -r /soft/hadoop/etc/hadoop/hdfs-site.xml
ssh s105 rm -r /soft/hadoop/etc/hadoop/hdfs-site.xml

  

  使用 xsync.sh 脚本将所有配置文件进行同步

xsync.sh /soft/hadoop/etc/hadoop/hdfs-site.xml

5. 启动 Hadoop & 验证 SecondaryNameNode 配置成功

  启动 Hadoop

start-all.sh

  验证 SecondaryNameNode 配置成功

xcall.sh jps

  


将 SecondaryNameNode 配置到 s105 节点上的更多相关文章

  1. OpenStack-Ocata版+CentOS7.6 云平台环境搭建 — 6.在计算节点上安装并配置计算服务Nova

    安装和配置计算节点这个章节描述如何在计算节点上安装和配置计算服务. 计算服务支持几种不同的 hypervisors.为了简单起见,这个配置在计算节点上使用 :KVM <kernel-based ...

  2. 从0开始搭建SQL Server AlwaysOn 第四篇(配置异地机房节点)

    从0开始搭建SQL Server AlwaysOn 第四篇(配置异地机房节点) 第一篇http://www.cnblogs.com/lyhabc/p/4678330.html第二篇http://www ...

  3. TaskTracker节点上的内存管理器

    Hadoop平台的最大优势就是充分地利用了廉价的PC机,这也就使得集群中的工作节点存在一个重要的问题——节点所在的PC机内存资源有限(这里所说的工作节点指的是TaskTracker节点),执行任务时常 ...

  4. SQL Server Alwayson配置两个节点加共享文件夹仲裁见证

    标签:MSSQL/节点和共享文件夹多数 概述 之前讲过多数节点的仲裁配置,多数节点一般3个节点以上的奇数个节点:常见的是使用3个节点节点多了也是浪费因为Alwayson的只读路由只能利用到一个只读副本 ...

  5. OpenStack搭建Q版在控制节点上的环境准备(step2)

    接下来是只需要在控制节点上准备的环境配置.其中虽然NTP服务需要在所有节点上都安装,但NTP服务在控制节点和其他的节点上的配置是不同的,所以不把它放在step1的公共配置中进行准备.如下: 1.配置N ...

  6. NodePort 只能在node节点上访问,外部无法访问

    创建了一个NodePort类型的jenkins service,node port 30000,node节点ip为192.168.56.101, 在node节点上通过浏览器能正常访问http://19 ...

  7. OpenStack-Ocata版+CentOS7.6 云平台环境搭建 — 5.在控制节点上部署计算服务Nova

    计算服务Nova使用OpenStack Compute来托管和管理云计算系统. OpenStack Compute是基础架构即服务(IaaS)系统的主要部分. 主要模块用Python实现.OpenSt ...

  8. hdfs 如何实现退役节点快速下线(也就是退役节点上的数据块快速迁移)speed up decommission blocks removal

    以下是选择复制源节点的代码 代码总结: A=datanode上要复制block的Queue size与 target datanode没被选出之前待处理复制工作数之和. 1. 优先选择退役中的节点,因 ...

  9. 三、安装并配置Kubernetes Node节点

    1. 安装并配置Kubernetes Node节点 1.1 安装Kubernetes Node节点所需服务 yum -y install kubernetes   通过yum安装kubernetes服 ...

随机推荐

  1. SpringDataJPA快速入门

    访问我的博客 前言 之前在学习 SpringBoot 框架的时候,使用到了 SpringData JPA,但是当时只是简单的查询,没有用到稍微复杂的查询. JPA 的 JPQL 语法规则对于简单的查询 ...

  2. div或其他html控件的overflow使用滚动条

    在编写html代码时, 有时候不想把控件撑大,滚动条就是个不错的选择 如下代码 <div style="height:auto !important;max-height:58px;o ...

  3. Python模块: 文件和目录os+shutil

    一 常用函数 os模块 os.sep 表示默认的文件路径分隔符,windows为\, linux为/os.walk(spath): 用来遍历目录下的文件和子目录os.listdir(dirname): ...

  4. Hibernate 分页 查询

    昨天的作业  分页: 主要的代码块:(明天实现分页的封装) package com.cy.beans; import java.util.List; /** * 定义一个分页对象 * @author ...

  5. DispatcherServlet源码注解分析

    DispatcherServlet的介绍与工作流程 DispatcherServlet是SpringMVC的前端分发控制器,用于处理客户端请求,然后交给对应的handler进行处理,返回对应的模型和视 ...

  6. js 筛选数据

    <input type="text" id="filterName"> <div class="scope fr"> ...

  7. Linux-mkdosfs格式化磁盘命令(15)

    名称:mkdosfs 使用:mkdosfs [块设备名称] 说明: 将一个块设备格式化为DOS磁盘类型 例: mkdosfs /dev/memblock //将memblock块设备格式化为dos磁盘 ...

  8. Java反射的好处

    反射的好处 我们在第一次接触反射的时候,总会有个很大的疑问,反射看起来好麻烦啊,各种get.get,他究竟有什么好处,能用来做什么呢? 我们先来看一下<编程思想>这本书中是怎么说的. RT ...

  9. Linux常用基本命令( rmdir, rm, mv )

    1,rmdir,一个很鸡肋的命令,只能删除空目录 ghostwu@dev:~/linux/cp$ ls .txt .txt a a2 a3 ghostwu@dev:~/linux/cp$ rmdir ...

  10. HDU1024(DP)

    Max Sum Plus Plus Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 65536/32768 K (Java/Others ...