#!/bin/sh
exit 0

linux单机分布式实验环境数据策略
#数据:不同源  -v ,link 各自独立的文件夹
#配置:同源,写时复制  存于docker images
#程序体,基本不改变.或者写时复制 存于docker images
#源码,部分熟悉的程序体,确定它们没有严重的相对于主机的运行时变化,适合单程序体,多实例的.
#        用 -v 所有节点,包括物理机,共享一个真实物理数据源.
#原则上能够共用的,要共用.除了节省磁盘空间外,更重要的是:它们可以共享同一份文件的内存缓存,节省内存,高速!

#data 物理机内data
ids=`seq 1 9`
for id in $ids ;do
#rm -fr /data/dk/c7$id/data/hadoop2.6.5
#!注意该文件为备份,导出文件夹,不能直接挂该文件夹.写时复制;
mkdir -p /win.d/data/dk/c7$id/data/hadoop-2.6.5/{fullhdfs,vhdfs,hahdfs}/tmp  /win.d/data/dk/c7$id/data/zookeeper-3.4.12/tmp/
echo $id>/win.d/data/dk/c7$id/data/zookeeper-3.4.12/tmp/myid
done

#初始配置文件都是一样的,但是后来可能会改变.所以配置文件,直接放在克隆源中!而不是放在-v;初始安装文件也是如此,不使用win.d/opt/
#confs/vhdfs/###########################################################################################
core-site.xml
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://namenode:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/data/hadoop-2.6.5/fullhdfs/tmp</value>
    </property>

hdfs-site.xml
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>namenode2:50090</value>
    </property>

#配置java的绝对路径;配置文件中最好不要用${},因为这种写法其实还是依赖解析环境的,解偶合失效;
slaves
datanode01
datanode02
datanode03

hdfs namenode -format
start-dfs.sh
#confs/hahdfs/#######################up is full or v  hdfs###############################################

#confs/hahdfs/#######################down is ha  hdfs#########################################################
#hahdfs
#hdfs-site.xml
<property>
        <name>dfs.replication</name>
        <value>3</value>
</property>
<property>
  <name>dfs.nameservices</name>
  <value>dkc7</value>
</property>
<property>
  <name>dfs.ha.namenodes.dkc7</name>
  <value>namenode,namenode2</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.dkc7.namenode</name>
  <value>namenode:8020</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.dkc7.namenode2</name>
  <value>namenode2:8020</value>
</property>
<property>
  <name>dfs.namenode.http-address.dkc7.namenode</name>
  <value>namenode:50070</value>
</property>
<property>
  <name>dfs.namenode.http-address.dkc7.namenode2</name>
  <value>namenode2:50070</value>
</property>

<property>
   <name>dfs.ha.automatic-failover.enabled</name>
   <value>true</value>
 </property>
<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://datanode01:8485;datanode02:8485;datanode03:8485/dkc7</value>
</property>
<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/data/hadoop2.6.5/hahdfs/jn</value>
</property>
<property>
  <name>dfs.client.failover.proxy.provider.dkc7</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
  <name>dfs.ha.fencing.methods</name>
  <value>sshfence</value>
</property>
<property>
  <name>dfs.ha.fencing.ssh.private-key-files</name>
  <value>/root/.ssh/id_rsa</value>
    <!--   此处官方文档有变化 -->
</property>

#core-site.xml

<property>
        <name>hadoop.tmp.dir</name>
        <value>/data/hadoop-2.6.5/confs/hahdfs/tmp</value>
</property>

<property>
  <name>fs.defaultFS</name>
  <value>hdfs://dkc7</value>
</property>

<property>
   <name>ha.zookeeper.quorum</name>
   <value>zk01:2181,zk02:2181,zk03:2181</value>
</property>

#zookeeper-3.4.12
ids=`seq 1 9`
for id in $ids ;do
echo $id>/win.d/data/dk/c7$id/data/zookeeper-3.4.12/tmp/myid
done
#zoo.cfg
cp $ZOOKEEPER_HOME/conf/zoo.cfg
sed -i s#dataDir=.*#dataDir=/data/zookeeper-3.4.12/tmp#g $ZOOKEEPER_HOME/conf/zoo.cfg
#dataDir=/data/zookeeper-3.4.12/tmp

# run in clone-source c70,then to image
for i in 4 5 6; do
echo "server.$i=1.1.1.7$i:2888:3888">>$ZOOKEEPER_HOME/conf/zoo.cfg
echo $i>/data/zookeeper-3.4.12/tmp/myid
done
echo "rm -fr /data;ln -sf /data/dk/\$HOSTNAME/data /data">>/dockerstartup/rc.local
#zookeeper to images

excp c70 "pushd;cd /opt/hadoop-2.6.5; rm -fr etc;ln -sf confs/hahdfs/etc  etc ;popd"
###########################ha hdfs启动顺序##################
zk-->zkfc-->jn-->namenode-->standby-->start-dfs

for id in 4 5 6; do
excp c78 "zkServer.sh start"
done

$ZOOKEEPER_HOME/bin/zkCli.sh
#run in namenode,it then up zk
excp c78 "hdfs zkfc -formatZK "

#id in 1 2 3 8 9 7 do:
#zkServer.sh status
#1  
excp c78 "hadoop-daemon.sh start journalnode"
#2.
excp c78 "hadoop-deamon.sh start namenode"
#第一台NN第一次:
#hdfs namenode -format
#3.
#另一台NN:
excp c79 "hdfs namenode  -bootstrapStandby"
excp c78 "start-dfs.sh"

excp rm1 "start-yarn.sh"
excp rm2 "start-yarn.sh"
 
excp c78 "stop-dfs.sh && start-dfs.sh"
#|| hadoop-daemon.sh start zkfc
#confs/hahdfs/#######################up is ha  hdfs#########################################################

###############################################down is yarn#################################################
 #yarn-site.xml
<property>
   <name>yarn.resourcemanager.ha.enabled</name>
   <value>true</value>
 </property>
 <property>
   <name>yarn.resourcemanager.cluster-id</name>
   <value>yarnrmcluster</value>
 </property>
 <property>
   <name>yarn.resourcemanager.ha.rm-ids</name>
   <value>rm1,rm2</value>
 </property>
 <property>
   <name>yarn.resourcemanager.hostname.rm1</name>
   <value>rm2</value>
 </property>
 <property>
   <name>yarn.resourcemanager.hostname.rm2</name>
   <value>rm2</value>
 </property>
 <property>
   <name>yarn.resourcemanager.zk-address</name>
   <value>zk01:2181,zk02:2181,zk03:2181</value>
 </property>

#map
     <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
    </property>

#$HADOOP_HOME/sbin/
excp rm1 "start-yarn.sh"
excp rm2 "start-yarn.sh"

############################################up is ha yarn #################################################
# set rm1=zk01 rm2=zk02 to hosts

hadoop.create.0.1的更多相关文章

  1. Hadoop 2.0 NameNode HA和Federation实践【转】

    Hadoop 2.0 NameNode HA和Federation实践 Posted on 2012/12/10 一.背景 天云趋势在2012年下半年开始为某大型国有银行的历史交易数据备份及查询提供基 ...

  2. Hadoop 2.0 中的资源管理框架 - YARN(Yet Another Resource Negotiator)

    1. Hadoop 2.0 中的资源管理 http://dongxicheng.org/mapreduce-nextgen/hadoop-1-and-2-resource-manage/ Hadoop ...

  3. Hadoop 1.0 和 2.0 中的数据处理框架 - MapReduce

    1. MapReduce - 映射.化简编程模型 1.1 MapReduce 的概念 1.1.1 map 和 reduce 1.1.2 shufftle 和 排序 MapReduce 保证每个 red ...

  4. Hadoop 2.0中单点故障解决方案总结

    Hadoop 1.0内核主要由两个分支组成:MapReduce和HDFS,众所周知,这两个系统的设计缺陷是单点故障,即MR的JobTracker和HDFS的NameNode两个核心服务均存在单点问题, ...

  5. Sqoop安装与使用(sqoop-1.4.5 on hadoop 1.0.4)

    1.什么是Sqoop Sqoop即 SQL to Hadoop ,是一款方便的在传统型数据库与Hadoop之间进行数据迁移的工具,充分利用MapReduce并行特点以批处理的方式加快数据传输,发展至今 ...

  6. hadoop 2.0 详细配置教程(转载)

    转载: http://www.cnblogs.com/scotoma/archive/2012/09/18/2689902.html 作者:杨鑫奇 PS:文章有部分参考资料来自网上,并经过实践后写出, ...

  7. ubuntu 14.04 hadoop eclipse 0配置基本环境

    动人的hadoop第二天.构造hadoop该环境还花了两天时间,在这里写自己配置的过程,我希望能帮助! 我将文中用到的全部资源都分享到了  这里,点开就能下载,不须要一个个的找啦! 当中有<Ha ...

  8. 应用AI芯片加速 Hadoop 3.0 纠删码的计算性能

    本文由云+社区发表 做为大数据生态系统中最重要的底层存储文件系统HDFS,为了保证系统的可靠性,HDFS通过多副本的冗余来防止数据的丢失.通常,HDFS中每一份数据都设置两个副本,这也使得存储利用率仅 ...

  9. Centos 7环境下安装配置Hadoop 3.0 Beta1简记

    前言 由于以前已经写过一篇Centos 7环境下安装配置2.8的随笔,因此这篇写得精简些,只挑选一些重要环节记录一下. 安装环境为:两台主机均为Centos 7.*操作系统,两台机器配置分别为: 主机 ...

随机推荐

  1. .net core json序列化 long类型转化成字符串

    实现类 using System; using System.ComponentModel; using System.Linq; using Newtonsoft.Json; namespace H ...

  2. java笔记 -- java字符串

    概念: Java字符串就是Unicode字符序列, Java没有内置的字符串类型, 而是在标准Java类库中提供了一个预定义类. 每个用双引号括起来的字符串都是String类的一个实例.String ...

  3. 为什么Java的main方法必须是public static void?

    一. void 如下,像C, C++一样,将返回值类型改为int,再返回一个0,虽然编译通过,但是运行时会报错. 找到一种可理解的解释:方法的副作用和返回值类型.(http://www.cnblogs ...

  4. cookie与sessionStorage机制

    sessionStorage.localStorage和cookie的区别 共同点:都是保存在浏览器端.且同源的 区别: 1.cookie数据始终在同源的http请求中携带(即使不需要),即cooki ...

  5. WinDbg调试 C# dmp

    WinDbg C#调试 打开windbg,加载需要调试的c# dmp. 设置好sympath等. 查看蹦会的c#主进程依赖的.Net环境 可以查看进程名对应的*.config文件. 开始加载符号,假设 ...

  6. 使用fastcall 代替汇编hook thiscall

    利用fastcall中ecx edx传递的特性,解决了ecx需要内嵌汇编才能实现hook thiscall函数的问题. #include <stdio.h> #include <st ...

  7. WCF服务无法访问DateTime类型的解决方法

    在WCF服务中,如果entity类含有DateTime类型的字段,那么接口将会被执行两次,从而出现无法访问的情况.如下图所示: 原因是WCF中DateTime无法转换成序列化JSON字符串,DateT ...

  8. 转:为什么根据IP地址查询物理所在地,而不是mac地址?

    来自 https://mp.weixin.qq.com/s/aOZQGMnMI2nkX4-qcJL4WQ 读者 不是说mac地址是计算机网卡唯一的地址吗?这样不是可以直接定位到某一台机器吗?为什么要用 ...

  9. java对象深度拷贝

    如何利用序列化来完成对象的拷贝呢?在内存中通过字节流的拷贝是比较容易实现的.把母对象写入到一个字节流中,再从字节流中将其读出来,这样就可以创建一个新的对象了,并且该新对象与母对象之间并不存在引用共享的 ...

  10. Mac下如何配置环境变量JDK

    1.在英文输入法的状态下,按键盘“Ctrl + 空格”组合键,调出Spotlight搜索,在这里可以快速启动终端,输入ter,然后回车,即可打开终端: 2.如果你是第一次配置环境变量,可以使用“tou ...