在不同版本号hdfs集群之间转移数据

    最简单的办法就是把src集群的数据导到本地,然后起还有一个进程将本地数据传到des集群上去。

只是这有几个问题:

  • 效率减少
  • 占用本地磁盘空间
  • 不能应付实时导数据需求
  • 两个进程须要协调,复杂度添加


    更好的办法是在同一个进程内一边读src数据,一边写des集群。只是这相当于在同一个进程空间内载入两个版本号的hadoop jar包。这就须要在程序中使用两个classloader来实现。 

    下面代码能够实现classloader载入自己定义的jar包,并生成须要的Configuration对象:
Java代码
  • URL[] jarUrls = new URL[1];
  • jarUrls[0]=new File(des_jar_path).toURI().toURL();
  • ClassLoader jarloader = new URLClassLoader(jarUrls, null);
  • Class Proxy = Class.forName("yourclass", true, jarloader);
  • Configuration conf = (Configuration)Proxy.newInstance();
URL[] jarUrls = new URL[1];
jarUrls[0]=newFile(des_jar_path).toURI().toURL();
ClassLoader jarloader = newURLClassLoader(jarUrls, null);
Class Proxy =Class.forName("yourclass", true, jarloader);
Configuration conf =(Configuration)Proxy.newInstance();




    可是因为在生成HTable对象时。须要使用这个conf对象,而载入这个conf对象的代码本身是由默认的classloader载入的,也就是0.19.2的jar包。

所以在以上代码最后一行所强制转换的Configuration对象仍然是0.19.2版本号的。

那怎么办呢? 

    琢磨了一会,发现假设要实现以上功能,必须将生成HTable对象,以及以后的全部hbase操作都使用这个新的classloader。因此这个新的classloader必须载入除了0.19.2的jar包外全部须要用到的jar包,然后把全部操作都封装进去。在外面用反射来调用。

这种话。通常构造函数都不为空了。因此须要用到Constructor来构造一个自己定义的构造函数 

    代码段例如以下:

Java代码
  • main.java
  • void init(){
  • ClassLoader jarloader = generateJarLoader();
  • Class Proxy = Class.forName("test.writer.hbasewriter.HBaseProxy", true, jarloader);
  • Constructor con = Proxy.getConstructor(new Class[]{String.class, String.class, boolean.class});
  • Boolean autoflush = param.getBoolValue(ParamsKey.HbaseWriter.autoFlush, true);
  • proxy = con.newInstance(new Object[]{path, tablename, autoflush});
  • }
  • void put(){
  • ...
  • while((line = getLine()) != null) {
  • proxy.getClass().getMethod("generatePut",String.class).invoke(proxy, line.getField(rowkey));
  • Method addPut = proxy.getClass().getMethod("addPut",
  • new Class[]{String.class, String.class, String.class});
  • addPut.invoke(proxy, new Object[]{field, column, encode});
  • proxy.getClass().getMethod("putLine").invoke(proxy);
  • }
  • }
  • ClassLoader generateJarLoader() throws IOException {
  • String libPath = System.getProperty("java.ext.dirs");
  • FileFilter filter = new FileFilter() {
  • @Override
  • public boolean accept(File pathname) {
  • if(pathname.getName().startsWith("hadoop-0.19.2"))
  • return false;
  • else
  • return pathname.getName().endsWith(".jar");
  • }
  • };
  • File[] jars = new File(libPath).listFiles(filter);
  • URL[] jarUrls = new URL[jars.length+1];
  • int k = 0;
  • for (int i = 0; i < jars.length; i++) {
  • jarUrls[k++] = jars.toURI().toURL();
  • }
  • jarUrls[k] = new File("hadoop-0.20.205.jar")
  • ClassLoader jarloader = new URLClassLoader(jarUrls, null);
  • return jarloader;
  • }
main.java
void init(){
  ClassLoader jarloader = generateJarLoader();
  Class Proxy =Class.forName("test.writer.hbasewriter.HBaseProxy", true, jarloader);
  Constructor con = Proxy.getConstructor(new Class[]{String.class,String.class, boolean.class});
  Boolean autoflush =param.getBoolValue(ParamsKey.HbaseWriter.autoFlush, true);
  proxy = con.newInstance(new Object[]{path, tablename, autoflush});
}
void put(){
...
  while((line = getLine()) != null) {
   proxy.getClass().getMethod("generatePut",String.class).invoke(proxy,line.getField(rowkey));
   Method addPut = proxy.getClass().getMethod("addPut",
      new Class[]{String.class, String.class, String.class});
   addPut.invoke(proxy, new Object[]{field, column, encode});
   proxy.getClass().getMethod("putLine").invoke(proxy);
  }
}
ClassLoader generateJarLoader()throws IOException {
      String libPath =System.getProperty("java.ext.dirs");
      FileFilter filter = new FileFilter() {
      @Override
      public boolean accept(File pathname) {
        if(pathname.getName().startsWith("hadoop-0.19.2"))
          return false;
        else
         returnpathname.getName().endsWith(".jar");
      }
      };
      File[] jars = newFile(libPath).listFiles(filter);
      URL[] jarUrls = new URL[jars.length+1];
   
      int k = 0;
      for (int i = 0; i < jars.length; i++){
        jarUrls[k++] = jars.toURI().toURL();
      }
      jarUrls[k] = newFile("hadoop-0.20.205.jar")
      ClassLoader jarloader = newURLClassLoader(jarUrls, null);
     return jarloader;
}
Java代码
  • HBaseProxy.java
  • public HBaseProxy(String hbase_conf, String tableName, boolean autoflush)
  • throws IOException{
  • Configuration conf = new Configuration();
  • conf.addResource(new Path(hbase_conf));
  • config = new Configuration(conf);
  • htable = new HTable(config, tableName);
  • admin = new HBaseAdmin(config);
  • htable.setAutoFlush(autoflush);
  • }
  • public void addPut(String field, String column, String encode) throws IOException {
  • try {
  • p.add(column.split(":")[0].getBytes(), column.split(":")[1].getBytes(),
  • field.getBytes(encode));
  • } catch (UnsupportedEncodingException e) {
  • p.add(column.split(":")[0].getBytes(), column.split(":")[1].getBytes(),
  • field.getBytes());
  • }
  • }
  • public void generatePut(String rowkey){
  • p = new Put(rowkey.getBytes());
  • }
  • public void putLine() throws IOException{
  • htable.put(p);
  • }
HBaseProxy.java
public HBaseProxy(Stringhbase_conf, String tableName, boolean autoflush)
     throws IOException{
   Configuration conf = new Configuration();
   conf.addResource(new Path(hbase_conf));
   config = new Configuration(conf);
   htable = new HTable(config, tableName);
   admin = new HBaseAdmin(config);
   htable.setAutoFlush(autoflush);
  }
public void addPut(Stringfield, String column, String encode) throws IOException {
    try {
     p.add(column.split(":")[0].getBytes(), column.split(":")[1].getBytes(),
        field.getBytes(encode));
   } catch (UnsupportedEncodingException e) {
     p.add(column.split(":")[0].getBytes(),column.split(":")[1].getBytes(),
        field.getBytes());
   }
   
  }
    public void generatePut(String rowkey){
   p = new Put(rowkey.getBytes());
  }
  
    public void putLine() throws IOException{
   htable.put(p);
  }

总之,在同一个进程中载入多个classloader时一定要注意,classloader A所载入的对象是不能转换成classloader B的对象的,当然也不能使用。

两个空间的相互调用仅仅能用java的基本类型或是反射。

很多其它精彩内容请关注:http://bbs.superwu.cn

关注超人学院微信二维码:

关注超人学院java免费学习交流群:

在不同版本号hdfs集群之间转移数据的更多相关文章

  1. Hadoop(四)HDFS集群详解

    前言 前面几篇简单介绍了什么是大数据和Hadoop,也说了怎么搭建最简单的伪分布式和全分布式的hadoop集群.接下来这篇我详细的分享一下HDFS. HDFS前言: 设计思想:(分而治之)将大文件.大 ...

  2. adoop(四)HDFS集群详解

    阅读目录(Content) 一.HDFS概述 1.1.HDFS概述 1.2.HDFS的概念和特性 1.3.HDFS的局限性 1.4.HDFS保证可靠性的措施 二.HDFS基本概念 2.1.HDFS主从 ...

  3. HDFS集群优化篇

    HDFS集群优化篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.操作系统级别优化 1>.优化文件系统(推荐使用EXT4和XFS文件系统,相比较而言,更推荐后者,因为XF ...

  4. HDFS集群PB级数据迁移方案-DistCp生产环境实操篇

    HDFS集群PB级数据迁移方案-DistCp生产环境实操篇 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 用了接近2个星期的时间,终于把公司的需要的大数据组建部署完毕了,当然,在部 ...

  5. sqoop将oracle数据导入hdfs集群

    使用sqoop将oracle数据导入hdfs集群 集群环境: hadoop1.0.0 hbase0.92.1 zookeeper3.4.3 hive0.8.1 sqoop-1.4.1-incubati ...

  6. HDFS集群中DataNode的上线与下线

    在HDFS集群的运维过程中,肯定会遇到DataNode的新增和删除,即上线与下线.这篇文章就详细讲解下DataNode的上线和下线的过程. 背景 在我们的微职位视频课程中,我们已经安装了3个节点的HD ...

  7. vivo 万台规模 HDFS 集群升级 HDFS 3.x 实践

    vivo 互联网大数据团队-Lv Jia Hadoop 3.x的第一个稳定版本在2017年底就已经发布了,有很多重大的改进. 在HDFS方面,支持了Erasure Coding.More than 2 ...

  8. 【Redis】集群故障转移

    集群故障转移 节点下线 在集群定时任务clusterCron中,会遍历集群中的节点,对每个节点进行检查,判断节点是否下线.与节点下线相关的状态有两个,分别为CLUSTER_NODE_PFAIL和CLU ...

  9. HDFS集群balance(2)-- 架构概览

    转载请注明博客地址:http://blog.csdn.net/suileisl HDFS集群balance,对应版本balance design 6 如需word版本,请QQ522173163联系索要 ...

随机推荐

  1. use EXPORT和use EXPORT_OK

    我不明白 use EXPORT和use EXPORT_OK的区别,大多数资料提到了一些: @Export 允许 导出模块的函数和变量到用户的名字空间使用标准的导入方法. 这种方式,我们不需要创建模块的 ...

  2. 阿根廷探戈舞会- 一起salsa百科 - 一起salsa网 - Powered by HDWiki!

    阿根廷探戈舞会- 一起salsa百科 - 一起salsa网 - Powered by HDWiki! 阿根廷探戈舞会 编辑词条 发表评论(2)     目录 • 京城阿根廷探戈资源 • 上海阿根廷探戈 ...

  3. POJ 2250(最长公共子序列 变形)

    Description In a few months the European Currency Union will become a reality. However, to join the ...

  4. Extjs实现树形结构三连选

    当项目中需要一个部门人员选择或者省市县地域连选时,就需要树形结构的连选. 再此,写了一个简单的树形结构三连选功能,模拟从后台读取数据和处理数据(欢迎大家交流指正). 代码如下: 循环创建三棵树,其中只 ...

  5. Windows Azure入门教学系列 (三):创建第一个Worker Role程序

    在开始本教学之前,请确保你从Windows Azure 平台下载下载并安装了最新的Windows Azure开发工具.本教学使用Visual Studio 2010作为开发工具. 步骤一:创建解决方案 ...

  6. 菜鸟级springmvc+spring+mybatis整合开发用户登录功能(上)

    由于本人愚钝,整合ssm框架真是费劲了全身的力气,所以打算写下这篇文章,一来是对整个过程进行一个回顾,二来是方便有像我一样的笨鸟看过这篇文章后对其有所帮助,如果本文中有不对的地方,也请大神们指教. 一 ...

  7. 碰撞回避算法(一) Velocity Obstacle

    碰撞回避是机器人导航,游戏AI等领域的基础课题.几十年来,有很多算法被提出.注意这里主要指的是局部的碰撞回避算法.尽管和全局的路径规划算法(A*算法等)有千丝万缕的联系.可是还是有所不同的(局部的碰撞 ...

  8. NSDate与时间戳的那点事

    对于项目中常常使用的时间来说,通过时间戳的形式进行数据的操作能带来极大的方便,以下就时间戳的生成和转换通过Demo的形式进行解说 声明一个时间类型的变量: // 获取当前的时间 // 以下的第一个方法 ...

  9. Swift - 给游戏添加背景音乐和音效(SpriteKit游戏开发)

    游戏少不了背景音乐和音效.下面我们通过创建一个管理音效的类,来实现背景音乐的播放,同时点击屏幕可以播放相应的音效. 声音管理类 SoundManager.swift 1 2 3 4 5 6 7 8 9 ...

  10. CSDN头版头条 《近匠》 Wijmo 5 CTO:从Web到移动,我的25年编程生涯

    现年52岁的Bernardo Castilho先生是GrapeCity(中文名为葡萄城)ComponentOne公司的CTO,在与他的对话过程中.充满风趣严谨和厚重的历史感. 当作为年轻人的我们崇拜着 ...