最近一个群友的boss让研究hbase,让hbase的入库速度达到5w+/s,这可愁死了,4台个人电脑组成的集群,多线程入库调了好久,速度也才1w左右,都没有达到理想的那种速度,然后就想到了这种方式,但是网上多是用mapreduce来实现入库,而现在的需求是实时入库,不生成文件了,所以就只能自己用代码实现了,但是网上查了很多资料都没有查到,最后在一个网友的指引下,看了源码,最后找到了生成Hfile的方式,实现了之后,发现单线程入库速度才达到1w4左右,和之前的多线程的全速差不多了,百思不得其解之时,调整了一下代码把列的Byte.toBytes(cols)这个方法调整出来只做一次,速度立马就到3w了,提升非常明显,这是我的电脑上的速度,估计在它的集群上能更快一点吧,下面把代码和大家分享一下。

        String tableName = "taglog";
             byte[] family = Bytes.toBytes("logs");
             //配置文件设置
             Configuration conf = HBaseConfiguration.create();
             conf.set("hbase.master", "192.168.1.133:60000");
             conf.set("hbase.zookeeper.quorum", "192.168.1.135");
             //conf.set("zookeeper.znode.parent", "/hbase");
             conf.set("hbase.metrics.showTableName", "false");
             //conf.set("io.compression.codecs", "org.apache.hadoop.io.compress.SnappyCodec");

             String outputdir = "hdfs://hadoop.Master:8020/user/SEA/hfiles/";
             Path dir = new Path(outputdir);
             Path familydir = new Path(outputdir, Bytes.toString(family));
             FileSystem fs = familydir.getFileSystem(conf);
             BloomType bloomType = BloomType.NONE;
             final HFileDataBlockEncoder encoder = NoOpDataBlockEncoder.INSTANCE;
             int blockSize = 64000;
             Configuration tempConf = new Configuration(conf);
             tempConf.set("hbase.metrics.showTableName", "false");
             tempConf.setFloat(HConstants.HFILE_BLOCK_CACHE_SIZE_KEY, 1.0f);
             //实例化HFile的Writer,StoreFile实际上只是HFile的轻量级的封装
             StoreFile.Writer writer = new StoreFile.WriterBuilder(conf, new CacheConfig(tempConf),
                     fs, blockSize)
                     .withOutputDir(familydir)
                     .withCompression(Compression.Algorithm.NONE)
                     .withBloomType(bloomType).withComparator(KeyValue.COMPARATOR)
                     .withDataBlockEncoder(encoder).build();
             long start = System.currentTimeMillis();

             DecimalFormat df = new DecimalFormat("0000000");

             KeyValue kv1 = null;
             KeyValue kv2 = null;
             KeyValue kv3 = null;
             KeyValue kv4 = null;
             KeyValue kv5 = null;
             KeyValue kv6 = null;
             KeyValue kv7 = null;
             KeyValue kv8 = null;

             //这个是耗时操作,只进行一次
             byte[] cn = Bytes.toBytes("cn");
             byte[] dt = Bytes.toBytes("dt");
             byte[] ic = Bytes.toBytes("ic");
             byte[] ifs = Bytes.toBytes("if");
             byte[] ip = Bytes.toBytes("ip");
             byte[] le = Bytes.toBytes("le");
             byte[] mn = Bytes.toBytes("mn");
             byte[] pi = Bytes.toBytes("pi");

             int maxLength = 3000000;
             for(int i=0;i<maxLength;i++){
                 String currentTime = ""+System.currentTimeMillis() + df.format(i);
                 long current = System.currentTimeMillis();
                  //rowkey和列都要按照字典序的方式顺序写入,否则会报错的
                  kv1 = new KeyValue(Bytes.toBytes(currentTime),
                          family, cn,current,KeyValue.Type.Put,Bytes.toBytes("3"));

                  kv2 = new KeyValue(Bytes.toBytes(currentTime),
                          family, dt,current,KeyValue.Type.Put,Bytes.toBytes("6"));

                  kv3 = new KeyValue(Bytes.toBytes(currentTime),
                          family, ic,current,KeyValue.Type.Put,Bytes.toBytes("8"));

                  kv4 = new KeyValue(Bytes.toBytes(currentTime),
                          family, ifs,current,KeyValue.Type.Put,Bytes.toBytes("7"));

                  kv5 = new KeyValue(Bytes.toBytes(currentTime),
                          family, ip,current,KeyValue.Type.Put,Bytes.toBytes("4"));

                  kv6 = new KeyValue(Bytes.toBytes(currentTime),
                          family, le,current,KeyValue.Type.Put,Bytes.toBytes("2"));

                  kv7 = new KeyValue(Bytes.toBytes(currentTime),
                          family, mn,current,KeyValue.Type.Put,Bytes.toBytes("5"));

                  kv8 = new KeyValue(Bytes.toBytes(currentTime),
                          family,pi,current,KeyValue.Type.Put,Bytes.toBytes("1"));

                 writer.append(kv1);
                 writer.append(kv2);
                 writer.append(kv3);
                 writer.append(kv4);
                 writer.append(kv5);
                 writer.append(kv6);
                 writer.append(kv7);
                 writer.append(kv8);
             }

             writer.close();

             //把生成的HFile导入到hbase当中
             HTable table = new HTable(conf,tableName);
             LoadIncrementalHFiles loader = new LoadIncrementalHFiles(conf);
             loader.doBulkLoad(dir, table);

  

  最后再附上查看hfile的方式,查询正确的hfile和自己生成的hfile,方便查找问题。  hbase org.apache.hadoop.hbase.io.hfile.HFile -p -f hdfs://hadoop.Master:8020/user/SEA/hfiles/logs/51aa97b2a25446f89d5c870af92c9fc1

hbase 学习(十二)非mapreduce生成Hfile,然后导入hbase当中的更多相关文章

  1. MapReduce生成HFile入库到HBase

    转自:http://www.cnblogs.com/shitouer/archive/2013/02/20/hbase-hfile-bulk-load.html 一.这种方式有很多的优点: 1. 如果 ...

  2. 非mapreduce生成Hfile,然后导入hbase当中

    转自:http://blog.csdn.net/stark_summer/article/details/44174381 未实验 最近一个群友的boss让研究hbase,让hbase的入库速度达到5 ...

  3. MapReduce生成HFile入库到HBase及源码分析

    http://blog.pureisle.net/archives/1950.html

  4. Java进阶(五十二)利用LOG4J生成服务日志

    Java进阶(五十二)利用LOG4J生成服务日志 前言 由于论文写作需求,需要进行流程挖掘.前提是需要有真实的事件日志数据.真实的事件日志数据可以用来发现.监控和提升业务流程. 为了获得真实的事件日志 ...

  5. (转)SpringMVC学习(十二)——SpringMVC中的拦截器

    http://blog.csdn.net/yerenyuan_pku/article/details/72567761 SpringMVC的处理器拦截器类似于Servlet开发中的过滤器Filter, ...

  6. HBase学习(二) 基本命令 Java api

    一.Hbase shell 1.Region信息观察 创建表指定命名空间 在创建表的时候可以选择创建到bigdata17这个namespace中,如何实现呢? 使用这种格式即可:'命名空间名称:表名' ...

  7. 【Hbase学习之二】Hbase 搭建

    环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk8 hadoop-3.1.1 hbase-2.1.3 一.单机模 ...

  8. Scala学习十二——高阶函数

    一.本章要点 在Scala中函数是”头等公民“(可以作为参数,返回值,赋值给其他); 可以创建匿名函数,通常还会交给其他函数; 函数参数可以给出需要稍后执行的行为; 许多集合方法都接受函数参数,将函数 ...

  9. hbase学习(二)hbase单机和高可用完全分布式安装部署

    hbase版本 2.0.4  与hadoop兼容表http://hbase.apache.org/book.html#hadoop  我的 hadoop版本是3.1   1.单机版hbase 1.1解 ...

随机推荐

  1. C#基础第八天-作业答案-设计类-面向对象方式实现两个帐户之间转账

    using System; using System.Collections.Generic; using System.Linq; using System.Text; using System.T ...

  2. Spark-Sql之DataFrame实战详解

    1.DataFrame简介: 在Spark中,DataFrame是一种以RDD为基础的分布式数据据集,类似于传统数据库听二维表格,DataFrame带有Schema元信息,即DataFrame所表示的 ...

  3. HDU 1019 Least Common Multiple 数学题解

    求一组数据的最小公倍数. 先求公约数在求公倍数.利用公倍数,连续求全部数的公倍数就能够了. #include <stdio.h> int GCD(int a, int b) { retur ...

  4. c++中浮点数精度设置

    1.包含头文件<iomanip>,附注manip是manipulator,操控的简写. 2.第一种写法: cout<<setiosflags(ios::); 第二种写法: co ...

  5. android 通过命令行启动Apk

    几个启动指定程序activity的例子 Music 和 Video(音乐和视频)的启动方法为: # am start -n com.android.music/com.android.music.Mu ...

  6. PC端页面同比例缩放

    <meta name="viewport" content="width=1202"> //这行代码可以使PC端页面同比例缩放,不至于变形

  7. 网络广告CPS/CPC/CPV/CPM/CPA分别是什么意思

    CPA:注册广告(一般按用户来计算)CPC:点击广告(一般按一千个ip计算)CPS:消费广告(用户通过你的网站中投放的广告,达成消费,有提成)CPM:展示广告(展示广告,一般的视频比较多)CPV:按照 ...

  8. signal函数的原型声明void (*signal(int signo, void (*fun(int))))(int)分析

    转:http://blog.sina.com.cn/s/blog_4850a7880100hnam.html void (*signal(int signo, void (*fun(int))))(i ...

  9. Nginx作为web服务器

    为什么选择Nginx,nginx有诸多优点: nginx是轻量级web服务器,支持AIO.mmap.event-driven,解决了c10k问题.虚拟主机.基于名字和IP访问.nginx平滑升级 .热 ...

  10. java 多线程 29 :多线程组件之 Exchanger

    Exchanger Exchanger,从名字上理解就是交换.Exchanger用于在两个线程之间进行数据交换,注意也只能在两个线程之间进行数据交换.线程会阻塞在Exchanger的exchange方 ...