Mac-搭建Hadoop集群
You have to work very hard to believe that you are really powerless.
Mac-搭建Hadoop集群
我用到了:VMware Fusion、CentOS7、FileZilla、jdk-8u181-linux-x64.tar.gz和hadoop-2.7.6.tar.gz
1、集群部署规划
NameNode单点部署:
节点名称 | NN1 | NN2 | DN | RM | NM | 规划IP | other |
tjt01 | NameNode | DataNode | NodeManager | 172.16.114.130 | hive/hdfs | ||
tjt02 | SecondaryNameNode | DataNode | ResourceManager | NodeManager | 172.16.114.131 | hbase/kms | |
tjt03 | DataNode | NodeManager | 172.16.114.132 | mysql/spark |
2、三台客户机相关准备
2.1、安装VMware虚拟机
在虚拟机中安装CentOS镜像,由初始安装的CentOS7版本的镜像,完整克隆出另外两台虚拟机
2.2、修改主机名
[root@tjt01 tjt]# vi /etc/hostname
分别修改三台虚拟机主机名:tjt01、tjt02、tjt03
2.3、修改host文件
配置主机host:
[root@tjt01 tjt]# vi /etc/hosts
将配置发送到其他的主机,同时在其他主机上配置:
scp -r /etc/hosts root@tjt02:/etc/
scp -r /etc/hosts root@tjt03:/etc/

测试host文件修改结果:
ping tjt01
ping tjt02
ping tjt03
2.4、设置SSH免密登录
每两台主机之间设置免密码,自己的主机与自己的主机之间也要求设置免密码;
输入:ssh-keygen -t rsa
然后按下四次回车,之后在把密匙发到其他主机上,输入:ssh-copy-id tjt01 并按提示输入密码,然后是ssh-copy-id 02和ssh-copy-id 03同样的操作;
之后,在另外两台虚拟机上也执行相同的步骤:
ssh-keygen -t rsa
ssh-copy-id tjt01
ssh-copy-id tjt02
ssh-copy-id tjt03
ssh tjt01、ssh tjt02、ssh tjt03

rpm -qa | grep jdk
yum remove *openjdk*
yum remove copy-jdk-configs-3.3-.el7_5.noarch
干掉jdk-configs

将JDK安装包上传到/opt下,可以通过XShell的rz上传,也可以用FileZilla:
到/opt 目录下解压:tar xzvf jdk-8u181-linux-x64.tar.gz
设置JAVA_HOME:
输入:vi /etc/profile,在profile文件中的编辑模式下加上下方export配置:
export JAVA_HOME=/opt/jdk1..0_181
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/sbin
复制JDK到另外两个节点:
在这之前要先把另外两台虚拟机上的openjdk也干掉:
yum remove *openjdk*
yum remove copy-jdk-configs-3.3-.el7_5.noarch
然后复制jdk到另外两个虚拟机上:
scp -r /opt/jdk1..0_181 root@tjt02:/opt/
scp -r /opt/jdk1..0_181 root@tjt03:/opt/
向其他节点复制profile文件:
scp /etc/profile root@tjt02:/etc/
scp /etc/profile root@tjt03:/etc/
然后每个节点分别执行 source /etc/profile ,使profile生效下,并通过java-version简单测试下,jdk复制是否成功:
tjt02:
tjt03:
3、安装Hadoop
3.1、上传并解压Hadoop
解压:tar zxvf hadoop-2.7.6.tar.gz
3.2、搭建Hadoop集群
配置文件在hadoop2.7.6/etc/hadoop/下,修改设置hadoop2.7.6目录下的可执行权限
3.2.1、修改 core-site.xml
[root@tjt01 hadoop]# vi core-site.xml
然后在core-site.xml文件中编辑如下:
<!-- 指定HDFS中NameNode的地址 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://tjt01:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 --> <property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.7./data/full/tmp</value>
</property>
3.2.2、修改hadoop-env.sh
[root@tjt01 hadoop]# vi hadoop-env.sh
修改JAVA_HOME:
3.2.3 修改hdfs-site.xml
[root@tjt01 hadoop]# vi hdfs-site.xml
修改 hdfs-site.xml 的配置如下:
<configuration>
<!-- 设置dfs副本数,不设置默认是3个 -->
<property>
<name>dfs.replication</name>
<value></value>
</property>
<!-- 设置secondname的端口 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>tjt02:</value>
</property>
</configuration>
3.2.4 修改 slaves
[root@tjt01 hadoop]# vi slaves
增加slaves 配置如下:
tjt01
tjt02
tjt03
3.2.5 修改mapred-env.sh
[root@tjt01 hadoop]# vi mapred-env.sh
修改其JAVA_HOME如下:
export JAVA_HOME=/opt/jdk1..0_181
3.2.6 修改mapred-site.xml
[root@tjt01 hadoop]# mv mapred-site.xml.template mapred-site.xml
[root@tjt01 hadoop]# vi mapred-site.xml
修改其configuration如下:
<configuration>
<!-- 指定mr运行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
3.2.7 修改yarn-env.sh
[root@tjt01 hadoop]# vi yarn-env.sh
修改其JAVA_HOME如下:
export JAVA_HOME=/opt/jdk1..0_181
3.2.8 修改yarn-site.xml
[root@tjt01 hadoop]# vi yarn-site.xml
修改配置如下:
<configuration>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>tjt02</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
<description>Whether virtual memory limits will be enforced for containers</description>
</property>
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value></value>
<description>Ratio between virtual memory to physical memory when setting memory limits
for containers</description>
</property>
</configuration>
3.3 分发hadoop到各个节点
[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7./ root@tjt02:/opt
[root@tjt01 hadoop]# scp -r /opt/hadoop-2.7./ root@tjt03:/opt
3.4 配置环境变量
[root@tjt01 hadoop]# vi /etc/profile
修改配置如下:
export HADOOP_HOME=/opt/hadoop-2.7.
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile 使profile文件生效;
[root@tjt01 hadoop]# source /etc/profile
3.5 分发profile到各个节点
[root@tjt01 hadoop]# scp /etc/profile root@tjt02:/etc/
[root@tjt01 hadoop]# scp /etc/profile root@tjt03:/etc/
到各自的服务节点上是profile 生效:
[root@tjt02 ~]# source /etc/profile
[root@tjt03 ~]# source /etc/profile
4 启动验证集群
4.1 启动集群
[root@tjt01 hadoop]# hdfs namenode -format
当看到19/05/03 03:45:47 INFO common.Storage: Storage directory /opt/hadoop-2.7.6/data/full/tmp/dfs/name has been successfully formatted. 就格式化OK了;

[root@tjt01 hadoop-2.7.]# start-dfs.sh
如果Namenode和ResourceManager不是同一台虚拟机的话,不能在NameNode上启动yarn,应该在ResourceManager所在的机器上启动yarn;我的yarn配置在tjt02服务器上,一次需要到tjt02机器上启动yarn
[root@tjt02 hadoop]# start-yarn.sh
[root@tjt01 hadoop]# jps
[root@tjt02 hadoop]# jps
[root@tjt03 hadoop]# jps
在虚拟机tjt01上访问:http://172.16.114.130:50070
Datanode:
需要先在tjt3这台机器上关闭防火墙后,才可以在非linux服务器中的浏览器访问:
//临时关闭
systemctl stop firewalld
//禁止开机启动
systemctl disable firewalld
本机访问:http://172.16.114.130:50070/
在虚拟机tjt02上访问:http://172.16.114.131:8088/cluster
4.2、Hadoop停止启动方式
1)各个服务组件逐一启动
分别启动hdfs 组件:
hadoop-deamon.sh start | stop namenode | datnode | secondarynamenode
启动yarn:
yarn-deamon.sh start | stop resourcemanager | nodemanager
2) 各个模块分开启动(常用)
start | stop-dfs.sh
start | stop-yarn.sh
3) 全部启动
start | stop-all.sh
其他
1、关闭防火墙
//临时关闭
systemctl stop firewalld
//禁止开机启动
systemctl disable firewalld
2、创建用户,设置文件权限
创建用户,修改密码:
[root@tjt01 ~]# useradd tjt
[root@tjt01 ~]# passwd tjt
Mac-搭建Hadoop集群的更多相关文章
- 搭建Hadoop集群 (一)
上面讲了如何搭建Hadoop的Standalone和Pseudo-Distributed Mode(搭建单节点Hadoop应用环境), 现在我们来搭建一个Fully-Distributed Mode的 ...
- 使用Windows Azure的VM安装和配置CDH搭建Hadoop集群
本文主要内容是使用Windows Azure的VIRTUAL MACHINES和NETWORKS服务安装CDH (Cloudera Distribution Including Apache Hado ...
- virtualbox 虚拟3台虚拟机搭建hadoop集群
用了这么久的hadoop,只会使用streaming接口跑任务,各种调优还不熟练,自定义inputformat , outputformat, partitioner 还不会写,于是干脆从头开始,自己 ...
- 搭建Hadoop集群 (三)
通过 搭建Hadoop集群 (二), 我们已经可以顺利运行自带的wordcount程序. 下面学习如何创建自己的Java应用, 放到Hadoop集群上运行, 并且可以通过debug来调试. 有多少种D ...
- 搭建Hadoop集群 (二)
前面的步骤请看 搭建Hadoop集群 (一) 安装Hadoop 解压安装 登录master, 下载解压hadoop 2.6.2压缩包到/home/hm/文件夹. (也可以从主机拖拽或者psftp压缩 ...
- Linux下搭建Hadoop集群
本文地址: 1.前言 本文描述的是如何使用3台Hadoop节点搭建一个集群.本文中,使用的是三个Ubuntu虚拟机,并没有使用三台物理机.在使用物理机搭建Hadoop集群的时候,也可以参考本文.首先这 ...
- Hadoop入门进阶步步高(五)-搭建Hadoop集群
五.搭建Hadoop集群 上面的步骤,确认了单机能够运行Hadoop的伪分布运行,真正的分布式运行无非也就是多几台slave机器而已,配置方面的有一点点差别,配置起来就很easy了. 1.准备三台se ...
- Linux 搭建Hadoop集群 成功
内容基于(自己的真是操作步骤编写) Linux 搭建Hadoop集群---Jdk配置 Linux 搭建Hadoop集群 ---SSH免密登陆 一:下载安装 Hadoop 1.1:下载指定的Hadoop ...
- 阿里云搭建hadoop集群服务器,内网、外网访问问题(详解。。。)
这个问题花费了我将近两天的时间,经过多次试错和尝试,现在想分享给大家来解决此问题避免大家入坑,以前都是在局域网上搭建的hadoop集群,并且是局域网访问的,没遇见此问题. 因为阿里云上搭建的hadoo ...
- 虚拟机搭建Hadoop集群
安装包准备 操作系统:ubuntu-16.04.3-desktop-amd64.iso 软件包:VirtualBox 安装包:hadoop-3.0.0.tar.gz,jdk-8u161-linux-x ...
随机推荐
- 使用redis作为调度中心的celery时启动多个queue,报错Probably the key ('_kombu.binding.reply.celery.pidbox') has been removed from the Redis database
我今天在使用celery启动多个queue时遇到一个问题,当启动第二个queue是,第一个启动的queue日志报了下面一段错误 [2019-12-16 14:40:25,736: ERROR/Main ...
- .Net FrameWork获取配置文件信息
今天在做项目的时候需要到配置文件中读取信息,之前自己并没有操作过,今天算是完成自己的一个心愿.读取配置文件中的信息并不难,大致思路是: 1.载入配置文件,获取配置文件的实例. 2.获取配置文件的节点 ...
- localdb启动
前提:vs自带localdb,不用另外装.其次,vs里的的“sql server 对象资源管理器”(在视图里)可以常规管理它.相比之下,SSMS更专业(推荐),按情况选用. 正文: 安装完毕后…… C ...
- XSS相关Payload及Bypass的备忘录(上)
翻译学习准备自用,同时分享给大家, 来自于: https://github.com/swisskyrepo/PayloadsAllTheThings/tree/master/XSS%20Injecti ...
- (原)pytorch中使用TensorRT
转载请注明出处: https://www.cnblogs.com/darkknightzh/p/11332155.html 代码网址: https://github.com/darkknightzh/ ...
- curl模拟多线程
1.curl发送请求的请求的基本思路 打开会话 设置会话参数 发送请求 关闭句柄 2.curl单进程发送示例 <?php //请求链接 $arr = [ 'https://www.yahoo.c ...
- OpenSSL生成私钥和公钥
1.生成私钥 -- 生成 RSA 私钥(传统格式的) openssl genrsa -out rsa_private_key.pem 1024 -- 将传统格式的私钥转换成 PKCS#8 格式的(JA ...
- Python在Linux环境中安装Thrift
1.文件下载:thrift-0.11.0.tar.gz 个人网盘下载:链接:https://pan.baidu.com/s/1MXgx8LuN4wk7ssVUD9Wzaw 提取码:xw85 2. ...
- css之单行缩略..以及多行缩略
html单行缩略方法 .oneline { white-space: nowrap; //强制文本在一行内输出 overflow: hidden; //隐藏溢出部分 text-overflow: el ...
- Latex使用过程中的一些总结
本文主要总结在使用Latex过程中遇到的一些问题及解决方案. 一:关于参考文献 1.如何在paper同一处用\cite命令同时引用多篇文献? 用\cite{bibtex1}\cite{bibtex2} ...