Hadoop2.0重启脚本

方便重启带ha的集群,写了这个脚本

#/bin/bash

sh /opt/zookeeper-3.4.5-cdh4.4.0/bin/zkServer.sh restart

sh /opt/hadoop-2.0.0-cdh4.5.0/sbin/hadoop-daemon.sh start journalnode

sh /opt/hadoop-2.0.0-cdh4.5.0/sbin/stop-dfs.sh

sh /opt/hadoop-2.0.0-cdh4.5.0/bin-mapreduce1/stop-mapred-ha.sh

sh /opt/hadoop-2.0.0-cdh4.5.0/sbin/start-dfs.sh

sh /opt/hadoop-2.0.0-cdh4.5.0/bin-mapreduce1/start-mapred-ha.sh

sh /opt/hadoop-2.0.0-cdh4.5.0/bin/hdfs haadmin -DfSHAadmin -failover nn1 nn0

#wait 30

sh /opt/hadoop-2.0.0-cdh4.5.0/bin-mapreduce1/hadoop mrhaadmin -failover jt2 jt1

附录:

单独启动ha jt

hadoop-cdh4.5-ha-start-up

配置:

配置位置

文件1:start-mapred-ha.sh$HADOOP_HOME/bin-mapreduce1/start-mapred-ha.sh

文件2:stop-mapred-ha.sh$HADOOP_HOME/bin-mapreduce1/stop-mapred-ha.sh

文件3:hadoop-daemons-mrha.sh$HADOOP_HOME/bin-mapreduce1/hadoop-daemons-mrha.sh

文件4:hagroups.sh$HADOOP_HOME/bin-mapreduce1/hagroups.sh

文件5:hagroups$HADOOP_CONF_DIR/hagroups

用法:

启动:$HADOOP_HOME/bin-mapreduce1/start-mapred-ha.sh

关闭:$HADOOP_HOME/bin-mapreduce1/stop-mapred-ha.sh

文件1:start-mapred-ha.sh

#!/usr/bin/env bash

bin=`dirname "$0"`

bin=`cd "$bin"; pwd`

. "$bin"/hadoop-config.sh

# start jobtrackerha first to minimize connection errors at startup

"$bin"/hadoop-daemons-mrha.sh --config $HADOOP_CONF_DIR start mrzkfc

"$bin"/hadoop-daemons-mrha.sh --config $HADOOP_CONF_DIR start jobtrackerha

"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start tasktracker

文件2:stop-mapred-ha.sh

#!/usr/bin/env bash

# Stop hadoop map reduce daemons.  Run this on master node.

bin=`dirname "$0"`

bin=`cd "$bin"; pwd`

. "$bin"/hadoop-config.sh

"$bin"/hadoop-daemons-mrha.sh --config $HADOOP_CONF_DIR stop jobtrackerha

"$bin"/hadoop-daemons-mrha.sh --config $HADOOP_CONF_DIR stop mrzkfc

"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR stop tasktracker

文件3:hadoop-daemons-mrha.sh

#!/usr/bin/env bash

usage="Usage: hadoop-daemons-mrha.sh [--config confdir] [--hosts hostlistfile] [start|stop] command args..."

# if no args specified, show usage

if [ $# -le 1 ]; then

echo $usage

exit 1

fi

bin=`dirname "$0"`

bin=`cd "$bin"; pwd`

. $bin/hadoop-config.sh

exec "$bin/hagroups.sh" --config $HADOOP_CONF_DIR cd "$HADOOP_HOME" \; "$bin/hadoop-daemon.sh" --config $HADOOP_CONF_DIR "$@"

文件4:hagroups.sh

#!/usr/bin/env bash

usage="Usage: hagroups.sh [--config confdir] command..."

# if no args specified, show usage

if [ $# -le 0 ]; then

echo $usage

exit 1

fi

bin=`dirname "$0"`

bin=`cd "$bin"; pwd`

. "$bin"/hadoop-config.sh

# If the slaves file is specified in the command line,

# then it takes precedence over the definition in

# hadoop-env.sh. Save it here.

HOSTLIST=$HADOOP_SLAVES

if [ -f "${HADOOP_CONF_DIR}/hadoop-env.sh" ]; then

. "${HADOOP_CONF_DIR}/hadoop-env.sh"

fi

if [ "$HOSTLIST" = "" ]; then

if [ "$HADOOP_SLAVES" = "" ]; then

export HOSTLIST="${HADOOP_CONF_DIR}/hagroups"

else

export HOSTLIST="${HADOOP_SLAVES}"

fi

fi

for slave in `cat "$HOSTLIST"|sed  "s/#.*$//;/^$/d"`; do

ssh $HADOOP_SSH_OPTS $slave $"${@// /\\ }" \

2>&1 | sed "s/^/$slave: /" &

if [ "$HADOOP_SLAVE_SLEEP" != "" ]; then

sleep $HADOOP_SLAVE_SLEEP

fi

done

wait

文件5:hagroups

h2master1

h2master2

Hadoop2.0重启脚本的更多相关文章

  1. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  2. Hadoop2.0.0+CDH4.5.0集群配置

    Hadoop 2.0.0-cdh4.5.0安装:http://blog.csdn.net/u010967382/article/details/18402217 CDH版本下载:http://arch ...

  3. Nginx和PHP-FPM的启动/重启脚本 [转发]

    Nginx和PHP-FPM的启动/重启脚本 [转发] (2012-07-27 16:07:52) 标签: it 分类: 学习 转载自:http://blog.sina.com.cn/s/blog_53 ...

  4. Nginx 启动脚本/重启脚本

    第一步先运行命令关闭nginx sudo kill `cat /usr/local/nginx/logs/nginx.pid` 第二步 vi /etc/init.d/nginx 输入以下内容 #!/b ...

  5. hadoop2.0 和1.0的区别

    1. Hadoop 1.0中的资源管理方案Hadoop 1.0指的是版本为Apache Hadoop 0.20.x.1.x或者CDH3系列的Hadoop,内核主要由HDFS和MapReduce两个系统 ...

  6. ganglia监控hadoop2.0配置方法

    ganglia监控hadoop2.0配置方法前提:hadoop2.0集群已安装ganglia监控工具第一步:Hadoop用户登录集群每一个节点,修改文件:vi /opt/hadoop-2.0.0-cd ...

  7. hadoop2.0 eclipse 源码编译

    在eclipse下编译hadoop2.0源码 http://www.cnblogs.com/meibenjin/archive/2013/07/05/3172889.html hadoop cdh4编 ...

  8. 在eclipse下远程调试hadoop2.0

    在<在eclipse下编译hadoop2.0源码>一文中,我详细介绍了如何在eclipse环境和命令行环境下编译hadoop2.0源代码,并简单介绍了如何构建hadoop环境,这篇文章将着 ...

  9. Hadoop-2.0 目录简介

    Hadoop-2.0 目录简介 一.目录结构 将下载的压缩包解压: 解压后文件夹如下: 二.各文件夹目录结构 1.bin:Hadoop2.0的最基本管理脚本和使用脚本所在目录.这些脚本是sbin目录下 ...

随机推荐

  1. 专门查看阻塞和死锁情况以及引起的SQL语句,你可以创建后,直接运行之。

    CREATE procedure sp_who_lock as begin declare @spid int declare @blk int declare @count int declare ...

  2. 计算直线的交点数(hdu1466简单的dp)

    题意:平面上有n条直线,且无三线共点,问这些直线能有多少种不同交点数.比如,如果n=2,则可能的交点数量为0(平行)或者1(不平行). 思路:动态规划,想办法记忆化搜索,当前状态和之前状态结合起来 d ...

  3. 操作Cookie的一个陷阱服务器端获取不了maxAge或其它属性

    搞了几天终于弄明白了这个问题: 在读取Cookie,然后操作时,除了getName(),getValue()外,不要妄图得到其他信息,如下方法不会得到值的:cookie.getMaxAge();=== ...

  4. SecureCRT上传、下载文件(使用sz与rz命令)

    1.简述 借助securtCRT,使用linux命令sz可以很方便的将服务器上的文件下载到本地,使用rz命令则是把本地文件上传到服务器. 2.理解记忆 其中,对于sz和rz的理解与记忆我用了如下的方法 ...

  5. 国内外从事CV相关的企业[转]

    提示:本文为笔者原创,转载请注明出处:blog.csdn.net/carson2005 经常碰到朋友问我国内从事计算机视觉(CV)领域的公司的发展情况,产品情况,甚至找工作等问题,这里,我给出自己收集 ...

  6. chart.js接口开发:X轴步长和Labels旋转角

    一. 当初为什么选择chart.js 当初项目使用库是Zepto,Zepto能支持的chart处理库太少.也是为了使得项目比较轻量化,所以选择了chart.js. 但是最后的显示结果实在太差,放弃了c ...

  7. 【java开发系列】— JDOM创建、改动、删除、读取XML文件

    有非常多中操作XML文件的方法,这里介绍一下JDOM的用法和技巧. JDOM下载地址 创建XML文档 XML文件是一种典型的树形文件,每一个文档元素都是一个document元素的子节点. 而每一个子元 ...

  8. python中使用list作为默认参数且调用时不给其赋值的问题

    最近在写代码时发现一个有趣的地方,当python中的函数使用list作为默认参数且调用时不给其赋值时,无法通过在函数中将其赋值为[]来达到清空此默认参数的目的.按照道理来说,函数f1中的list为局部 ...

  9. CSS的魔法和魅力

    其实我最开始学会的语言是HTML,我记得那还是大一的事情.当时我对床的兄弟DR放了一本HTML的书在床上,我因为没事就拿来看看.那本书大概只有50页左右,可是可以说如果没有这本书,今天Maybe我不会 ...

  10. [转载]GMT地形数据总结

    [转载]GMT地形数据总结     原文地址:GMT地形数据总结作者:Jason 转载:http://seisman.info/gmt-topo-grid-datas.html   目前接触到的地形数 ...