启动hadoop集群
1.配置core-site.xml(每个节点上都要配置)
路径:
/usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml
配置项1:
name: fs.defaultFS
value: hdfs://master的地址:端口
作用:
告诉所有机器master的相关信息
例如:
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.0.104:9000</value>
</property>
配置项2:
name: hadoop.tmp.dir
value: tmp目录地址
作用:
hadoop默认把计算结果以及中间数据存储在/tmp,而linux会在不定期的删除/tmp目录下的文件
例如:
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
</property>
2.配置hosts文件(每个节点上都要配置)
路径:
/etc/hosts
作用:
告诉集群中每个节点彼此的名字和ip地址
配置项:
ip hostname
例如:
192.168.0.104 master
192.168.0.105 slave1
192.168.0.107 slave2
如果不配置在启动node的时候会报类似于:java.net.UnknownHostException: master: master: unknown error
3.在master上启动namenode
格式化namenode
命令:hdfs namenode -format
地址:/tmp/hadoop-root/dfs/name
启动namenode
命令:hadoop-daemon.sh start namenode
日志记录在:/usr/local/hadoop-2.7.3/logs/hadoop-root-namenode-master.out
验证:jps
4.在所有slave上启动datanode
命令:hadoop-daemon.sh start datanode
验证:jps
5.查看集群
在master上执行netstat -tnpl
tcp 0 0 192.168.0.104:9000 0.0.0.0:* LISTEN 2853/java
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 2853/java
会发现,hadoop启动后,会监听9000端口和50070端口
9000端口是namenode和datanode通信的端口
50070端口是提供的web监控界面端口(需要关闭防火墙,否则无法访问)
web界面地址:http://192.168.0.104:50070/dfshealth.html#tab-overview
6.关闭集群
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
7.一键式启动
配置/usr/local/hadoop-2.7.3/etc/hadoop/slaves
[root@master hadoop]# cat slaves
slave1
slave2
这里需要关闭slave1和slave2的防火墙,否则不成功
slave1和slave2也是通过hosts里去找的
如果没有设置ssh登录,这里需要输入密码,建议设置ssh登录
start-dfs.sh也需要登录自己,如果做ssh登录也需要给自己的authorized_keys添加自己的id_rsa.pub
启动脚本:
master上执行:start-dfs.sh
8.一键式停止
master上执行:stop-dfs.sh
启动hadoop集群的更多相关文章
- [hadoop] 集群启动和内存调优
1.启动Hadoop集群 #首先查看下zoo.cfg里面配置的server.id和集群主机的id是否一致 #如果不一致会造成yarn控制不了从节点的启动 cat /home/hadoop/zookee ...
- hadoop 集群 master datanode 没有启动
2018-02-07 02:47:50,377 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Inco ...
- Hadoop集群启动
1.初始化集群 要启动Hadoop集群,需要启动HDFS和YARN两个集群 注意:首次启动HDFS时,必须对其进行格式化操作.本质上是一些清理和准备工作, 因为此时的HDFS在物理上还是不存在的 命令 ...
- 启动原生Hadoop集群或伪分布环境
一:启动Hadoop 集群或伪分布安装成功之后,通过执行./sbin/start-all.sh启动Hadoop环境 通过jps命令查看当前启动进程是否正确~ [root@neusoft-master ...
- 解决hadoop 集群启动常见错误办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- hadoop集群之Datenode无法启动解决办法
hadoop集群之Datenode无法启动解决办法 我们在启动hadoop集群的时候,通过jps查看进程,发现namenode RM和Secondary NameNode都有,但datanode没有启 ...
- docker搭建Hadoop集群
一个分布式系统基础架构,由Apache基金会所开发. 用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储. 首先搭建Docker环境,Docker版本大于1.3. ...
- 大数据系列(3)——Hadoop集群完全分布式坏境搭建
前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...
- 大数据系列(2)——Hadoop集群坏境CentOS安装
前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...
随机推荐
- tcpdump抓包(转)
Linux 环境下,通常通过 tcpdump 来进行抓包和分析.它是几乎所有 Linux 发行版本预装的数据包抓取和分析工具. tcpdump 工具的获取和安装可以参阅相应操作系统的官方文档,本文不再 ...
- centos7下安装openvpn,访问内网服务器 (二) windows访问
一.简介 在上一章中已经安装好了openvpn,并且已经启动成功,现在就可以通过openvpn的客户端进行连接访问内网服务器了. 二.安装openvpn客户端 下载地址: https://www.te ...
- SpringCloud系列十二:手动创建Feign
1. 回顾 上文讲解了自定义Feign.但是在某些场景下,前文自定义Feign的方式满足不了需求,此时可使用Feign Builder API手动创建Feign. 本文围绕以下场景,为大家讲解如何手动 ...
- 基于Virtext6平台的GTX IP核基本设置说明
本工程基于以下条件使用: 板卡:DBF板v3.0 芯片型号:Virtex6 315T ISE版本:14.7 IP核版本: v6_gtxwizard : 1.12 一.IP核配置进行流程 第一页配置:线 ...
- java计算两个日期相差多少天小时分钟等
1.时间转换 data默认有toString() 输出格林威治时间,比如说Date date = new Date(); String toStr = date.toString(); 输出的结果类似 ...
- iOS开发密码输入数字和字母混合
#import "TestInPut.h" @implementation TestInPut +(BOOL)judgePassWordLegal:(NSString *)pass ...
- is char signed or unsigned?
工作这么多年,一直认为char是有符号的,而事实上gcc和vs默认也是有符号,但是c规范里实际并没有指明char是有符号还是无符号,所以char比较特殊, char signed char unsig ...
- 设计模式中类的关系之聚合关系(Aggregation)
聚合关系是关联关系的一种特例,它体现的是整体与部分的关系,即has-a的关系,此时整体与部分之间是可分离的,它们可以具有各自的生命周期,部分可以属于多个整体对象,也可以为多个整体对象共享.比如计算机与 ...
- tcpdump http://www.cnblogs.com/daisin/articles/5512957.html
http://www.cnblogs.com/daisin/articles/5512957.html
- Spring MVC的@ResponseBody回来JSON串
1 406错误 <mvc:annotation-driven />不用动,请求的时候URL的文件扩展名应为json @ResponseBody会根据扩展名,或者Header,或者Param ...