有时需要从hbase中一次读取大量的数据,同时对实时性有较高的要求。可以从两方面进行考虑:1、hbase提供的get方法提供了批量获取数据方法,通过组装一个list<Get> gets即可实现;2、java多线程的Future方法实现了如何从多线程中获取返回数据。以上两种方法结合后,获取数据将会更加的高效。阅读到一篇文章,对这两个方法的结合使用给出了实例,并有详细的性能分析。特意转载过来,供以后的参考学习:

HBase
高性能获取数据 - 多线程批量式解决办法

如何保证在十亿、百亿数据上面的查询效率?    答:使用分布式搜索引擎

数据量过亿,无论是存储在关系型数据库还是非关系型数据库,使用非索引字段进行条件查询、模糊查询等复杂查询都是一件极其缓慢甚至是不可能完成的任务,数据库索引建立的是二级索引,大数据查询主要依靠搜索引擎。

根据Solr中国资料显示,在2400亿每条数据大概200字节的数据建立索引,搭建分布式搜索引擎,在50台机器进行搜索测试,其中有条件查询、模糊查询等,其中80%的搜索能够在毫秒内返回结果,剩下一部分能够在20秒内返回,还有5%左右的查询需要在50秒左右的时间完成查询请求,客户端查询请求的并发量为100个客户端。

MySQL单机随机读写能力测试

MySQL(InnoDB)

运行环境

Window Server 2008 x64

存储引擎

InnoDB

最大存储容量

64T

列数

39列

每条数据的大小

Avg=507Byte

总数据量

302,418,176条

占用的磁盘空间

210G

插入效率

总共耗时13个小时,每秒约6500条,随着数据量的增大,插入的效率影响不大

单条数据全表随机读取时间

30ms

百条数据全表随机读取时间

1,783ms;1,672ms

千条数据全表随机读取时间

18,579ms;15,473ms

其他

条件查询、Order By、模糊查询基本上是无法响应的

HBase基本说明与性能测试

HBase

数据库类型

NoSql—列式数据库

运行所需要的环境

Linux

是否可以搭建集群

天然的分布式数据库,具有自动分片功能

可扩展性

强,无缝支持水平拓展

插入

与设置的参数关系很大,批量插入和单条插入差别大,单台机器能够实现1w~3w之间的插入速度

更新

删除

查询

只支持按照rowkey来查询或者全表扫描

范围查询

不支持

模糊匹配

不支持

时间范围查询

不支持

分页查询

可以做到

数据库安全性

大数据量下的查询响应时间

各个数据级别下的响应时间: (均为随机读取,不命中缓存)

1、3亿-------------------5ms(单行)

2、3亿-------------------124ms(30行)

大数据量下占用的磁盘空间

各个数据级别下的磁盘占用空间(以出租车表为例,17个字段,一行200个字节):

1、1亿-------------------18G(使用GZ压缩)

是否有良好的技术支持

社区活跃,但是配置复杂,参数繁多,学习代价比较大

数据导入和导出

有从RDBMS导入数据的工具Sqoop

热备份

异步复制

是否需要商业付费

是否开源

优点

1、  支持高效稳定的大数据存储,上亿行、上百万列、上万个版本,对数据自动分片

2、  列式存储保证了高效的随机读写能力

3、  列数可以动态增长

4、  水平拓展十分容易

5、  拥有良好的生态系统,Sqoop用户数据的导入、Pig可以作为ETL工具,Hadoop作为分布式计算平台

缺点

1、  学习复杂

2、  不支持范围查询、条件查询等查询操作

从上面的测试结果表中可以看出,MySQL单表插入速度为每秒6500条,HBase单台机器能够实现1w~3w之间的插入速度,这充分说明HBase插入数据的速度比MySQL高很多。在MySQL单机随机读写能力测试中,单条数据全表随机读取时间是指依据主键去MySQL单表取数据花费的时间;在HBase基本说明与性能测试中,大数据量下查询响应时间是指依照Rowkey到HBase取数据所花费的时间。30ms对5ms,这说明HBase取数据的速度之快也是MySQL望尘莫及的。


在进行上面的性能测试中,无论是从MySQL通过主键读取,还是从HBase通过Rowkey读取,读取的数据量都不大,不超过1000条。当需要一次性读取万级数据时,需要通过设计优化的代码来保证读取速度。

在实现过程中,发现当批量Get的数据量达到一定程度时(如10W),向HBase请求数据会从innerGet发生EOFExeption异常。这里附加上一段从HBase依照多Rowkey获取数据的代码,它采用了性能高的批量Get。在这里,我将这种大批量请求化为每1000个Get的请求,并且采用多线程方式,经过验证,这种方法的效率还是蛮高的。

public Datas getDatasFromHbase(final List<String> rowKeys,
        final List<String> filterColumn, boolean isContiansRowkeys,
        boolean isContainsList)
    {
        if (rowKeys == null || rowKeys.size() <= 0)
        {
            return Datas.getEmptyDatas();
        }
        final int maxRowKeySize = 1000;
        ExecutorService pool = Executors.newFixedThreadPool(10);
        int loopSize = rowKeys.size() % maxRowKeySize == 0 ? rowKeys.size()
            / maxRowKeySize : rowKeys.size() / maxRowKeySize + 1;
        ArrayList<Future<List<Data>>> results = new ArrayList<Future<List<Data>>>();
        for (int loop = 0; loop < loopSize; loop++)
        {
            int end = (loop + 1) * maxRowKeySize > rowKeys.size() ? rowKeys
                .size() : (loop + 1) * maxRowKeySize;
            List<String> partRowKeys = rowKeys.subList(loop * maxRowKeySize,
                end);
            HbaseDataGetter hbaseDataGetter = new HbaseDataGetter(partRowKeys,
                filterColumn, isContiansRowkeys, isContainsList);
            Future<List<Data>> result = pool.submit(hbaseDataGetter);
            results.add(result);
        }
        Datas datas = new Datas();
        List<Data> dataQueue = new ArrayList<Data>();
        try
        {
            for (Future<List<Data>> result : results)
            {
                List<Data> rd = result.get();
                dataQueue.addAll(rd);
            }
            datas.setDatas(dataQueue);
        }
        catch (InterruptedException | ExecutionException e)
        {
            e.printStackTrace();
        }
        finally
        {
            pool.shutdown();
        }
        return datas;

}

class HbaseDataGetter implements Callable<List<Data>>
    {
        private List<String> rowKeys;
        private List<String> filterColumn;
        private boolean isContiansRowkeys;
        private boolean isContainsList;
 
        public HbaseDataGetter(List<String> rowKeys, List<String> filterColumn,
            boolean isContiansRowkeys, boolean isContainsList)
        {
            this.rowKeys = rowKeys;
            this.filterColumn = filterColumn;
            this.isContiansRowkeys = isContiansRowkeys;
            this.isContainsList = isContainsList;
        }
 
        @Override
        public List<Data> call() throws Exception
        {
            Object[] objects = getDatasFromHbase(rowKeys, filterColumn);
            List<Data> listData = new ArrayList<Data>();
            for (Object object : objects)
            {
                Result r = (Result) object;
                Data data = assembleData(r, filterColumn, isContiansRowkeys,
                    isContainsList);
                listData.add(data);
            }
            return listData;
        }

}

private Object[] getDatasFromHbase(List<String> rowKeys,
        List<String> filterColumn)
    {
        createTable(tableName);
        Object[] objects = null;
        HTableInterface hTableInterface = createTable(tableName);
        List<Get> listGets = new ArrayList<Get>();
        for (String rk : rowKeys)
        {
            Get get = new Get(Bytes.toBytes(rk));
            if (filterColumn != null)
            {
                for (String column : filterColumn)
                {
                    get.addColumn(columnFamilyName.getBytes(),
                        column.getBytes());
                }
            }
            listGets.add(get);
        }
        try
        {
            objects = hTableInterface.get(listGets);
        }
        catch (IOException e1)
        {
            e1.printStackTrace();
        }
        finally
        {
            try
            {
                listGets.clear();
                hTableInterface.close();
            }
            catch (IOException e)
            {
                e.printStackTrace();
            }
        }
        return objects;

}

private HTableInterface createTable(String tableName)
    {
        HTableInterface hTableInterface = null;
 
        try
        {
            hTableInterface = getHConnection().getTable(tableName.getBytes());
        }
        catch (IOException e)
        {
            e.printStackTrace();
        }
        return hTableInterface;

}

不得不提的是:在实现过程中,我曾将这种大批量请求化为每4000个Get的多线程请求方式,我们的HBase版本为0.94,这样在一次性请求200000条数据时,HBase直接挂机,client抛出EOFException异常,【processBatchCallback(HConnectionManager.java:1708),processBatch(HConnectionManager.java:1560),(HTable.java:779)】,查看并发连接数与每1000个Get请求一样保持为10个左右,没有异常。查阅相关资料后,我们怀疑,这是由于HTable的非线程安全特性导致的,但经过多时纠缠,最终也没得到可靠结论。后来确定这是由于HBase0.94版自身的问题,在使用0.96版后,此问题便不再出现了。而且我们发现0.94版HBase并不稳定,经常有挂掉情况出现。0.96版HBase要好得多。

hbase高性能读取数据的更多相关文章

  1. HBase 高性能获取数据(多线程批量式解决办法) + MySQL和HBase性能测试比较

    摘要:   在前篇博客里已经讲述了通过一个自定义 HBase Filter来获取数据的办法,在末尾指出此办法的性能是不能满足应用要求的,很显然对于如此成熟的HBase来说,高性能获取数据应该不是问题. ...

  2. HBase 高性能加入数据 - 按批多“粮仓”式解决办法

    摘要:如何从HBase中的海量数据中,以很快的速度的获取大批量数据,这一议题已经在<HBase 高性能获取数据>(http://www.cnblogs.com/wgp13x/p/42451 ...

  3. hbase 从hbase上读取数据写入到hdfs

    Mapper package cn.hbase.mapreduce.hb2hdfs; import java.io.IOException; import org.apache.hadoop.hbas ...

  4. 一个自定义 HBase Filter -“通过RowKeys来高性能获取数据”

    摘要: 大家在使用HBase和Solr搭建系统中经常遇到的一个问题就是:“我通过SOLR得到了RowKeys后,该怎样去HBase上取数据”.使用现有的Filter性能差劲,网上也没有现成的自定义Fi ...

  5. Spark 读取HBase和SolrCloud数据

    Spark1.6.2读取SolrCloud 5.5.1 //httpmime-4.4.1.jar // solr-solrj-5.5.1.jar //spark-solr-2.2.2-20161007 ...

  6. 从hbase读取数据优化策略和实验对照结果

    起因:工作须要.我须要每5分钟从hbase中.导出一部分数据,然后导入到ES中.可是在開始阶段编写的python脚本,我发现从hbase读取数据的速度较慢,耗费大量的时间.影响整个导数过程,恐怕无法在 ...

  7. Hbase读取数据

    get命令和HTable类的get()方法用于从HBase表中读取数据.使用 get 命令,可以同时获取一行数据.它的语法如下: get ’<table name>’,’row1’ 下面的 ...

  8. hbase 从hdfs上读取数据到hbase中

    <dependencies> <dependency> <groupId>org.apache.hbase</groupId> <artifact ...

  9. HBase之BlockCache数据读取(转)

    转自:http://blog.csdn.net/u014297175/article/details/47976909 Hbase上Regionserver的内存分为两个部分,一部分作为Memstor ...

随机推荐

  1. 树莓派控制高电平蜂鸣器(c语言+新手向)

    话不多说,先上代码: #include <wiringPi.h> #include <stdio.h> #include <sys/time.h> #define ...

  2. codeforces 842D Vitya and Strange Lesson

    题目大意: 定义mex数为数组中第一个没有出现的非负整数.有m个操作,每个操作有一个x,将数组中所有的元素都异或x,然后询问当前的mex Input First line contains two i ...

  3. 计蒜客NOIP模拟赛(2) D1T1邻家男孩

    凡是一个具有领导力的孩子.现实生活中他特别喜欢玩一个叫做 UNO 的纸牌游戏,他也总是带着其他小朋友一起玩,然后战胜他们.慢慢地,他厌倦了胜利,于是准备发明一种新的双人纸牌游戏. 初始时,每个人手中都 ...

  4. 洛谷P2144 [FJOI2007]轮状病毒

    可以用Matrix-Tree定理,然而被卡精度 #include<cstdio> #include<cstdlib> #include<algorithm> #in ...

  5. hdu 5868 Polya计数

    Different Circle Permutation Time Limit: 3000/1500 MS (Java/Others)    Memory Limit: 262144/262144 K ...

  6. hdu 5428

    题意:一个数是这n个数的乘,找出它一个不是素数的最小因子 求出所有数的所有质因子中最小的两个,相乘就是答案.如果所有数字的质因子个数不到两个,那么就是无解. #include<iostream& ...

  7. Linux下双网卡Firewalld的配置流程

    实验室拟态存储的项目需要通过LVS-NAT模式通过LVS服务器来区隔内外网的服务,所以安全防护的重心则落在了LVS服务器之上.笔者最终选择通过firewalld放行端口的方式来实现需求,由于firew ...

  8. Linux学习之CentOS(十二)----磁盘管理之 认识ext文件系统(转)

    认识ext文件系统 硬盘组成与分割 文件系统特性 Linux 的 EXT2 文件系统(inode) 与目录树的关系 EXT2/EXT3 文件的存取与日志式文件系统的功能 Linux 文件系统的运行 挂 ...

  9. SQL Server数据库账号密码变更后导致vCenter Server无法访问数据库

    SQL Server数据库账号密码变更后导致vCenter Server无法访问数据库 1.1状况描述: 若SQL Server数据库的账号(这里以sa为例)密码发生了变更,那么连接数据的客户端vCe ...

  10. python2.7入门---操作mysql数据库增删改查

    Python 标准数据库接口为 Python DB-API,Python DB-API为开发人员提供了数据库应用编程接口.Python 数据库接口支持非常多的数据库,你可以选择适合你项目的数据库: G ...