启动hadoop集群
1.配置core-site.xml(每个节点上都要配置)
路径:
/usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml
配置项1:
name: fs.defaultFS
value: hdfs://master的地址:端口
作用:
告诉所有机器master的相关信息
例如:
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.0.104:9000</value>
</property>
配置项2:
name: hadoop.tmp.dir
value: tmp目录地址
作用:
hadoop默认把计算结果以及中间数据存储在/tmp,而linux会在不定期的删除/tmp目录下的文件
例如:
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
</property>
2.配置hosts文件(每个节点上都要配置)
路径:
/etc/hosts
作用:
告诉集群中每个节点彼此的名字和ip地址
配置项:
ip hostname
例如:
192.168.0.104 master
192.168.0.105 slave1
192.168.0.107 slave2
如果不配置在启动node的时候会报类似于:java.net.UnknownHostException: master: master: unknown error
3.在master上启动namenode
格式化namenode
命令:hdfs namenode -format
地址:/tmp/hadoop-root/dfs/name
启动namenode
命令:hadoop-daemon.sh start namenode
日志记录在:/usr/local/hadoop-2.7.3/logs/hadoop-root-namenode-master.out
验证:jps
4.在所有slave上启动datanode
命令:hadoop-daemon.sh start datanode
验证:jps
5.查看集群
在master上执行netstat -tnpl
tcp 0 0 192.168.0.104:9000 0.0.0.0:* LISTEN 2853/java
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 2853/java
会发现,hadoop启动后,会监听9000端口和50070端口
9000端口是namenode和datanode通信的端口
50070端口是提供的web监控界面端口(需要关闭防火墙,否则无法访问)
web界面地址:http://192.168.0.104:50070/dfshealth.html#tab-overview
6.关闭集群
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
7.一键式启动
配置/usr/local/hadoop-2.7.3/etc/hadoop/slaves
[root@master hadoop]# cat slaves
slave1
slave2
这里需要关闭slave1和slave2的防火墙,否则不成功
slave1和slave2也是通过hosts里去找的
如果没有设置ssh登录,这里需要输入密码,建议设置ssh登录
start-dfs.sh也需要登录自己,如果做ssh登录也需要给自己的authorized_keys添加自己的id_rsa.pub
启动脚本:
master上执行:start-dfs.sh
8.一键式停止
master上执行:stop-dfs.sh
启动hadoop集群的更多相关文章
- [hadoop] 集群启动和内存调优
1.启动Hadoop集群 #首先查看下zoo.cfg里面配置的server.id和集群主机的id是否一致 #如果不一致会造成yarn控制不了从节点的启动 cat /home/hadoop/zookee ...
- hadoop 集群 master datanode 没有启动
2018-02-07 02:47:50,377 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Inco ...
- Hadoop集群启动
1.初始化集群 要启动Hadoop集群,需要启动HDFS和YARN两个集群 注意:首次启动HDFS时,必须对其进行格式化操作.本质上是一些清理和准备工作, 因为此时的HDFS在物理上还是不存在的 命令 ...
- 启动原生Hadoop集群或伪分布环境
一:启动Hadoop 集群或伪分布安装成功之后,通过执行./sbin/start-all.sh启动Hadoop环境 通过jps命令查看当前启动进程是否正确~ [root@neusoft-master ...
- 解决hadoop 集群启动常见错误办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- hadoop集群之Datenode无法启动解决办法
hadoop集群之Datenode无法启动解决办法 我们在启动hadoop集群的时候,通过jps查看进程,发现namenode RM和Secondary NameNode都有,但datanode没有启 ...
- docker搭建Hadoop集群
一个分布式系统基础架构,由Apache基金会所开发. 用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储. 首先搭建Docker环境,Docker版本大于1.3. ...
- 大数据系列(3)——Hadoop集群完全分布式坏境搭建
前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...
- 大数据系列(2)——Hadoop集群坏境CentOS安装
前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...
随机推荐
- 转:VLC搭建RTSP直播流,图文介绍
将一个视频转成rtsp流,通过vlc播放器,搭建一个rtsp服务器,让rtsp客户端去访问这个视频的rtsp流 1 需要有vlc播放器,我的版本如下 2 媒体 --> 流 3 添加视频文件 ...
- unity, iOS集成微信
将微信sdk直接拖进xcode会导致Library Search Paths是错的,需要手动改成如下样子(蓝色选中部分)才能通过编译:
- MySQL(8)--Cluster 7.4 rpm centos7
还没来得及写.我就知道一个月完毕不了,暂时添加的工作总是拖后腿. .. MySQL集群 docker下安装MySQL Cluster报错了.是我image的包少了perl.老实装吧.image又小不了 ...
- varnish学习笔记
varnish cache是一款开源的高性能的缓存server.和老牌的Squid对照有例如以下长处. 1:varnish是基于内存缓存数据的,所以处理速度比Squid要快. 2:varnish支持更 ...
- DM36x IPNC OSD显示中文 --- 基本数据准备篇
经过上一篇的叙述,基本原理搞清楚后,便需要对我们在OSD上显示中文作数据准备,首先是需要将gb2312关键区(也就是实际有文字存在的区)中的汉字转换为图片,在实际的转换中,并不像上一篇中GB2312编 ...
- OSI与TCP/IP你了解多少?
刚开始接触计算机的时候,非常好奇数据是怎样传输的,通过后期的学习逐步了解了计算机的通信原理.相信很多人在学习计算机的时候,首先入门的第一门课就是计算机的通信原理,而通信原理又离不开两大参考模型:OSI ...
- 从‘void*’到‘int’的转换损失精度
在CentOS6.2 64位下编译一下代码,不通过,提示 ./11_2.cpp: In function ‘int main(int, char**)’:./11_2.cpp:28: 错误:从‘voi ...
- jcosole使用方法
一.JConsole是什么 从Java 5开始 引入了 JConsole.JConsole 是一个内置 Java 性能分析器,可以从命令行或在 GUI shell 中运行.您可以轻松地使用 JCo ...
- hdu 4786 Fibonacci Tree(最小生成树)
Fibonacci Tree Time Limit: 4000/2000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others) T ...
- DataUml Design 介绍11 - DataUML 1.5版本功能(支持无Oracle客户端连接,有图有真相)
DataUML Design1.5版本主要更新内容包括: 1.优化数据库登录界面: 2.查询分析器智能提示: 3.优化数据库浏览插件,数据库登录组件,支持历史记录缓存: 4.支持无Oracle客户端连 ...