hadoop集群完全分布式搭建
Hadoop环境搭建:完全分布式
集群规划:
ip hostname
192.168.204.154 master namenode resourcemanager datanode nodemanager
192.168.204.155 slave01 datanode nodemanager
192.168.204.156 slave02 datanode nodemanager
secondarynamenode是namenode的冷备份(不能代替namenode的工作,仅仅是拷贝namenode上的基础信息,帮助NameNode进行恢复)
安装配置完全分布式:
1.安装jdk
把master上的拷贝到slave01和slave02上
1)发送jdk安装包
scp -r jdk1.8.0_121 192.168.204.155:/home/hadoop/
scp -r jdk1.8.0_121 192.168.204.156:/home/hadoop/
2)发送配置文件
sudo scp /etc/profile 192.168.204.155:/etc
sudo scp /etc/profile 192.168.204.156:/etc
3)生效配置文件
source /etc/profile
source /etc/profile
2.配置主机名及映射文件
先改主机名
sudo vi /etc/sysconfig/network
需要改映射文件(将主机名和ip进行绑定)
三台机器均需要执行这个
vi /etc/hosts 末尾添加
3.配置免密码登录
主节点向从节点免密码登录
三个节点都要做
ssh-keygen
ssh-copy-id master/slave01/slave02
4.安装配置hadoop
hadoop-env.sh
core-site.xml
|
<property> <name>fs.defaultFS</name> <value>hdfs://master:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/hadoopdata</value> </property> |
hdfs-site.xml
|
<property> <name>dfs.replication</name> <value>2</value> </property> |
mapred-site.xml
|
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> |
yarn-site.xml
|
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> |
slaves文件
|
master slave01 slave02 |
向slave01、slave02远程发送hadoop安装文件
scp -r hadoop-2.7.1 slave01:/home/hadoop/
scp -r hadoop-2.7.1 slave02:/home/hadoop/
5.格式化集群
先把原来的删除临时文件目录(/tmp/hadoop-hadoop)
只需要在主节点上执行
hadoop namenode -format
6.在主节点启动
start-dfs.sh
start-yarn.sh
7.验证 jps
NameNode DataNode SecondaryNameNode ResourceManager NodeManager
8.停止
stop-all.sh
建议stop-dfs.sh stop-yarn.sh
*******跟踪日志:
tail -f hadoop-rxp233-namenode-rxp233.log
*******单个启动程序
hadoop-daemon.sh start namenode | DataNode | SecondaryNameNode
yarn-deamon.sh start resourcemanager | nodemanager
访问端口:
50070:hdfs的namenode的webui访问端口
ip:50070
8088:yarn的resourcemanager的webui的访问端口
ip:8088
****************将namenode和secondarynamenode分开配置:
1.在HADOOP_HOME/etc/hadoop目录下添加配置文件
masters(添加secondarynn的节点)
vi masters
|
slave01(secondarynamenode的节点) |
远程拷贝到其他节点:
scp masters slave01:/home/hadoop/hadoop-2.7.1/etc/hadoop/
scp masters slave02:/home/hadoop/hadoop-2.7.1/etc/hadoop/
2.修改hdfs-site.xml文件
1.>添加namenode的访问address
2.>添加secondarynamenode的访问address
|
<property> <name>dfs.namenode.http-address</name> <value>master:50070</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>slave01:50090</value> </property> |
scp hdfs-site.xml slave01:/home/hadoop/hadoop-2.7.1/etc/hadoop/
scp hdfs-site.xml slave02:/home/hadoop/hadoop-2.7.1/etc/hadoop/
https://www.linuxidc.com/Linux/2018-06/152795.htm
spark-on-yarn基本上按照这个教程就可以完成了
hadoop集群完全分布式搭建的更多相关文章
- hadoop集群为分布式搭建
1.准备Linux环境设置虚拟机网络 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改 ...
- 大数据系列(3)——Hadoop集群完全分布式坏境搭建
前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...
- 使用Docker搭建Hadoop集群(伪分布式与完全分布式)
之前用虚拟机搭建Hadoop集群(包括伪分布式和完全分布式:Hadoop之伪分布式安装),但是这样太消耗资源了,自学了Docker也来操练一把,用Docker来构建Hadoop集群,这里搭建的Hado ...
- 大数据系列(1)——Hadoop集群坏境搭建配置
前言 关于时下最热的技术潮流,无疑大数据是首当其中最热的一个技术点,关于大数据的概念和方法论铺天盖地的到处宣扬,但其实很多公司或者技术人员也不能详细的讲解其真正的含义或者就没找到能被落地实施的可行性方 ...
- hadoop集群环境的搭建
hadoop集群环境的搭建 今天终于把hadoop集群环境给搭建起来了,能够运行单词统计的示例程序了. 集群信息如下: 主机名 Hadoop角色 Hadoop jps命令结果 Hadoop用户 Had ...
- 3-3 Hadoop集群完全分布式配置部署
Hadoop集群完全分布式配置部署 下面的部署步骤,除非说明是在哪个服务器上操作,否则默认为在所有服务器上都要操作.为了方便,使用root用户. 1.准备工作 1.1 centOS6服务器3台 手动指 ...
- Hadoop集群(三) Hbase搭建
前面已经完成Zookeeper和HDFS的安装,本文会详细介绍Hbase的安装步骤.以及安装过程中遇到问题的汇总. 系列文章: Hadoop集群(一) Zookeeper搭建 Hadoop集群(二 ...
- Hadoop集群(二) HDFS搭建
HDFS只是Hadoop最基本的一个服务,很多其他服务,都是基于HDFS展开的.所以部署一个HDFS集群,是很核心的一个动作,也是大数据平台的开始. 安装Hadoop集群,首先需要有Zookeeper ...
- Hadoop集群完全分布式坏境搭建
前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...
随机推荐
- MySQL之初识数据库
一 数据库管理软件的由来 基于我们之前所学,数据要想永久保存,都是保存于文件中,毫无疑问,一个文件仅仅只能存在于某一台机器上. 如果我们暂且忽略直接基于文件来存取数据的效率问题,并且假设程序所有的组件 ...
- isPrototypeOf、instanceof、hasOwnProperty函数介绍
isPrototypeOf 作用:检测一个对象是否是另一个对象的原型.或者说一个对象是否被包含在另一个对象的原型链中 var p = {x:1};//定义一个原型对象 var o = Object.c ...
- Django-CRM项目学习(二)-模仿admin实现stark
开始今日份整理 1.stark模块基本操作 1.1 stark模块的启动 保证django自动的加载每一个app下的stark.py文件 创建django项目,创建stark项目,start app ...
- Java Scanner用法详解
一.Scanner类简介 Java 5添加了java.util.Scanner类,这是一个用于扫描输入文本的新的实用程序.它是以前的StringTokenizer和Matcher类之间的某种结合.由于 ...
- 学习笔记《Mustache》模板
Mustache 是一款经典的前端模板引擎,在前后端分离的技术架构下面,前端模板引擎是一种可以被考虑的技术选型,随着重型框架(AngularJS.ReactJS.Vue)的流行,前端的模板技术已经成为 ...
- Stream02
import 'package:flutter/material.dart';import 'dart:async';import 'dart:math'; void main()=>runAp ...
- UOJ143 万圣节的数列 构造
传送门 做过这道题,然后这道题告诉你怎么构造数据-- 一种可行的构造方式是:将奇数和偶数分成两半,奇数放在偶数前面,然后除以2,再递归下去处理. 构造的正确性是显然的:如果存在"奇数偶数奇数 ...
- mysql截取函数substring_index()和right()用法
); 以.作为截取的分隔符. ); 从第2位开始截取,截取所有的. );
- Shell命令-文件压缩解压缩之tar、unzip
文件及内容处理 - tar.unip 1.tar:打包压缩命令 tar命令的功能说明 tar 命令常用语用于备份文件,tar 是用来建立,还原备份文件的工具程序,它可以加入,解开备份文件内的文件 ta ...
- HashMap底层实现原理
HashMap底层实现 HashMap底层数据结构如下图,HashMap由“hash函数+数组+单链表”3个要素构成 通过写一个迷你版的HashMap来深刻理解 MyMap接口,定义一个接口,对外暴露 ...