启动hadoop集群
1.配置core-site.xml(每个节点上都要配置)
路径:
/usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml
配置项1:
name: fs.defaultFS
value: hdfs://master的地址:端口
作用:
告诉所有机器master的相关信息
例如:
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.0.104:9000</value>
</property>
配置项2:
name: hadoop.tmp.dir
value: tmp目录地址
作用:
hadoop默认把计算结果以及中间数据存储在/tmp,而linux会在不定期的删除/tmp目录下的文件
例如:
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
</property>
2.配置hosts文件(每个节点上都要配置)
路径:
/etc/hosts
作用:
告诉集群中每个节点彼此的名字和ip地址
配置项:
ip hostname
例如:
192.168.0.104 master
192.168.0.105 slave1
192.168.0.107 slave2
如果不配置在启动node的时候会报类似于:java.net.UnknownHostException: master: master: unknown error
3.在master上启动namenode
格式化namenode
命令:hdfs namenode -format
地址:/tmp/hadoop-root/dfs/name
启动namenode
命令:hadoop-daemon.sh start namenode
日志记录在:/usr/local/hadoop-2.7.3/logs/hadoop-root-namenode-master.out
验证:jps
4.在所有slave上启动datanode
命令:hadoop-daemon.sh start datanode
验证:jps
5.查看集群
在master上执行netstat -tnpl
tcp 0 0 192.168.0.104:9000 0.0.0.0:* LISTEN 2853/java
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 2853/java
会发现,hadoop启动后,会监听9000端口和50070端口
9000端口是namenode和datanode通信的端口
50070端口是提供的web监控界面端口(需要关闭防火墙,否则无法访问)
web界面地址:http://192.168.0.104:50070/dfshealth.html#tab-overview
6.关闭集群
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
7.一键式启动
配置/usr/local/hadoop-2.7.3/etc/hadoop/slaves
[root@master hadoop]# cat slaves
slave1
slave2
这里需要关闭slave1和slave2的防火墙,否则不成功
slave1和slave2也是通过hosts里去找的
如果没有设置ssh登录,这里需要输入密码,建议设置ssh登录
start-dfs.sh也需要登录自己,如果做ssh登录也需要给自己的authorized_keys添加自己的id_rsa.pub
启动脚本:
master上执行:start-dfs.sh
8.一键式停止
master上执行:stop-dfs.sh
启动hadoop集群的更多相关文章
- [hadoop] 集群启动和内存调优
1.启动Hadoop集群 #首先查看下zoo.cfg里面配置的server.id和集群主机的id是否一致 #如果不一致会造成yarn控制不了从节点的启动 cat /home/hadoop/zookee ...
- hadoop 集群 master datanode 没有启动
2018-02-07 02:47:50,377 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Inco ...
- Hadoop集群启动
1.初始化集群 要启动Hadoop集群,需要启动HDFS和YARN两个集群 注意:首次启动HDFS时,必须对其进行格式化操作.本质上是一些清理和准备工作, 因为此时的HDFS在物理上还是不存在的 命令 ...
- 启动原生Hadoop集群或伪分布环境
一:启动Hadoop 集群或伪分布安装成功之后,通过执行./sbin/start-all.sh启动Hadoop环境 通过jps命令查看当前启动进程是否正确~ [root@neusoft-master ...
- 解决hadoop 集群启动常见错误办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- hadoop集群之Datenode无法启动解决办法
hadoop集群之Datenode无法启动解决办法 我们在启动hadoop集群的时候,通过jps查看进程,发现namenode RM和Secondary NameNode都有,但datanode没有启 ...
- docker搭建Hadoop集群
一个分布式系统基础架构,由Apache基金会所开发. 用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储. 首先搭建Docker环境,Docker版本大于1.3. ...
- 大数据系列(3)——Hadoop集群完全分布式坏境搭建
前言 上一篇我们讲解了Hadoop单节点的安装,并且已经通过VMware安装了一台CentOS 6.8的Linux系统,咱们本篇的目标就是要配置一个真正的完全分布式的Hadoop集群,闲言少叙,进入本 ...
- 大数据系列(2)——Hadoop集群坏境CentOS安装
前言 前面我们主要分析了搭建Hadoop集群所需要准备的内容和一些提前规划好的项,本篇我们主要来分析如何安装CentOS操作系统,以及一些基础的设置,闲言少叙,我们进入本篇的正题. 技术准备 VMwa ...
随机推荐
- GBDT,随机森林
author:yangjing ## time:2018-10-22 Gradient boosting decision tree 1.main diea The main idea behind ...
- mysql被动模式下的主主配置
mysql 架构最简单用得也最多的的是主从,主主等,主从有个切换的问题,从库不可写,在主库一定的情况下,切换挺麻烦,这里可以用主主模式. 但是主主也有个问题,就是两边同时写有可能冲突,主键冲突,虽然可 ...
- cygwin开发环境搭建与apt-cyg的应用
1.Cygwin安装 http://www.cygwin.com/下载安装工具 详细安装过程參照http://jingyan.baidu.com/article/6b97984d83dfe51ca2b ...
- Hive substr 函数截取字符串
开发中,经常进行模糊查询或者进行截取字符串进行模糊匹配,常用的就是substr函数或者substring函数. 使用语法: substr(string A, int start),substring( ...
- I2S与pcm的区别
I2S仅仅是PCM的一个分支,接口定义都是一样的, I2S的采样频率一般为44.1KHZ和48KHZ做,PCM采样频率一般为8K,16K.有四组信号: 位时钟信号,同步信号,数据输入,数据输出. I2 ...
- vue实现结账单基本方法
<script> import axios from 'axios'; export default { name: 'Pos', mounted: function () { var o ...
- UITabelViewFootView(转)
在处理UITableView表格时,我们希望在View底部添加按钮. 用户拖动UITableView时按钮能跟随移动. 如题,实现如下界面: - (CGFloat)tableView:(UITable ...
- Windows Azure 系列-- Azure Redis Cache的配置和使用
假设还没有配置Azure Power shell 能够參照这里进行配置:http://blog.csdn.net/lan_liang/article/details/46850221 打开Azure ...
- zookeeper 批量启动的脚本
#!/bin/shecho "start zkServer"for i in 2 3 4dossh mini$i "source /etc/profile;/usr/l ...
- Trees on the level UVA - 122 复习二叉树建立过程,bfs,queue,strchr,sscanf的使用。
Trees are fundamental in many branches of computer science (Pun definitely intended). Current state- ...