一、问题描述

部分业务需要使用HBase的数据进行多维度分析,我们采用了将部分数据同步到Solr,通过Solr进行多维度查询返回对应的Rowkey,再从HBase批量获取数据。因此我们使用了一个比较成熟的方案Lily HBase Indexer来同步二级索引到Solr。但是使用的时候出现了Solr丢失数据的问题。基本上每天Solr都会比HBase少几千条数据。

二、分析步骤

由于我们使用的是CDH集群,下面所有操作都是基于该环境

2.1 查看日志

到每个节点的/var/log/hbase-solr/var/log/solr查看了日志,都没发现写入失败的记录

2.2 修改Solr的硬提交

由于日志没有发现错误,猜测是Solr的数据在缓存中没提交上去。
在solr的collecttion目录下的conf/solrconfig.xml文件,将Solr的硬提交激活,操作如下

  1. <autoCommit>
  2. <maxTime>${solr.autoCommit.maxTime:60000}</maxTime>
  3. <openSearcher>true</openSearcher>
  4. </autoCommit>

然后保存配置,将修改update 到Solr集群。然后测试仍旧出现上述问题

2.3 寻求StackOverFlow帮助

目前是没看到问题出在哪里了,因此只能去网上搜索一下具体原因了。网上有这么两个帖子
hbase-indexer solr numFound different from hbase table rows size

HBase Indexer导致Solr与HBase数据不一致问题解决

他们都提到了修改morphline-hbase-mapper.xml,添加read-row
如下:

重新刷新hbase-indexer配置

这次发现数目对了,但是字段缺了

2.4 修改了read-row="never"后,丢失部分字段

由于设置了read-row之后数据不会再次从HBase中获取,因此只会读取WAL。假如修改了部分字段,HBaseIndexer就会提交相应的字段上去。例如
HBase中有name和age两个字段

  1. put 'HBase_Indexer_Test','001','cf1:name','xiaoming'
  2. put 'HBase_Indexer_Test','002','cf1:name','xiaohua'

此时的数据为

然后执行

  1. put 'HBase_Indexer_Test','001','cf1:age','12'

最后只能看到

说明这种模式只从WAL获取数据,并且将获取的数据覆盖到了Solr里面。

那么这样看来只能修改HBase indexer的代码了

2.5 修改代码

Lily HBase Indexer的代码是托管在github 上的,如果是单独安装的请直接访问NGDATA的这个工程:http://ngdata.github.io/hbase-indexer/
如果是使用的CDH版本,请访问:https://github.com/cloudera/hbase-indexer

我这里使用CDH 5.7.0版本进行测试。在releases选项中可以找到对应版本号的包,下载解压之后可以看到一个Maven工程。可以看到它包含如下模块

./hbase-indexer-engine/src/main/java/com/ngdata/hbaseindexer/indexer/Indexer.java文件中有一个calculateIndexUpdates方法,其中有如下代码:

  1. Result result = rowData.toResult();
  2. if(conf.getRowReadMode()==RowReadMode.DYNAMIC){
  3. if(!mapper.containsRequiredData(result)){
  4. result = readRow(rowData);
  5. }
  6. }
  7. boolean rowDeleted = result.isEmpty();
  1. privateResult readRow(RowData rowData)throwsIOException{
  2. TimerContext timerContext = rowReadTimer.time();
  3. try{
  4. HTableInterface table = tablePool.getTable(rowData.getTable());
  5. try{
  6. Getget= mapper.getGet(rowData.getRow());
  7. return table.get(get);
  8. }finally{
  9. table.close();
  10. }
  11. }finally{
  12. timerContext.stop();
  13. }
  14. }

从代码中可以看出其执行的流程图如下:

假如我们使用默认的Dynamic模式写入了大量的数据,那么意味着有部分数据会在WAL生成后一段时间内无法“落地”,那么就可能出现下面的情况:

  • HBase RegionServer 将Put操作先写WAL (这个时候Put还没保存到Region);
  • 异步处理的HBase Indexer获取到这个WAL日志,对数据进行处理,进入了我们上面说的这段条件逻辑代码,恰巧Result里面没有一部分Solr索引列,那么需要调用readRow方法从HBase重新读取数据,这个时候调用HTable.get(Get) 并没有获取到数据(Result.isEmpty()为真);
  • HBase RegionServer把Put保存到Region ;
  • 那么对于第二个步骤里面的HBase Indexer,那条记录将被当成delelet操作,所以在后面的逻辑将其当成solr delete document的操作。所以在Solr中才会出现部分数据丢失和数值不对。

知道了问题在哪里之后,我们尝试修改他的源码。由于HBase将预写日志的内容写到HBase region中会有一定的滞后性,因此我们可以认为预写日志中的内容总是最新的数据。假设我们有一条rowkey =001的数据如下:

列名
Rowkey 001
cf1:A a
cf1:B b
cf1:C c

我们将C的值改成D。由于夹杂在很多条数据中,可能日志中拿到了C = 'd',但是HBase中仍旧是'c',我们需要将HBase的数据拿出来,再将预写日志中的数据覆盖它,便有了下面的代码

  1. privateResult readRow(RowData rowData)throwsIOException{
  2. TimerContext timerContext = rowReadTimer.time();
  3. try{
  4. HTableInterface table = tablePool.getTable(rowData.getTable());
  5. try{
  6. Get get = mapper.getGet(rowData.getRow());
  7. return merge(table.get(get), rowData.toResult());
  8. //return table.get(get);
  9. }finally{
  10. table.close();
  11. }
  12. }finally{
  13. timerContext.stop();
  14. }
  15. }
  16. privateResult merge(Result data,Result wal)throwsIOException{
  17. //如果data为空,则直接返回WAL的数据
  18. if(data.isEmpty()){
  19. return wal;
  20. }
  21. /* //如果rowkey不相同,则返回wal的数据
  22. if (!Bytes.toString(data.getRow()).equals(Bytes.toString(wal.getRow()))) {
  23. return wal;
  24. }*/
  25. TreeMap<String,Cell> cellMap =newTreeMap<String,Cell>();
  26. CellScanner dataScanner = data.cellScanner();
  27. CellScanner walScanner = wal.cellScanner();
  28. while(dataScanner.advance()){
  29. Cell cell = dataScanner.current();
  30. String cf =Bytes.toString(CellUtil.cloneFamily(cell));
  31. String cq =Bytes.toString(CellUtil.cloneQualifier(cell));
  32. String key = cf +"->"+ cq;
  33. cellMap.put(key, cell);
  34. }
  35. while(walScanner.advance()){
  36. Cell cell = walScanner.current();
  37. String cf =Bytes.toString(CellUtil.cloneFamily(cell));
  38. String cq =Bytes.toString(CellUtil.cloneQualifier(cell));
  39. String key = cf +"->"+ cq;
  40. cellMap.put(key, cell);
  41. }
  42. ArrayList<Cell> cells =newArrayList<Cell>();
  43. cells.addAll(cellMap.values());
  44. returnResult.create(cells);
  45. }

值得一提的是,HBase返回的result中,列的排序是按照"列族名+列名"的字典排序。比如表中有["cf1:name","cf2:cellphone","cf1:age"] 三个列,那么返回的时候会排列成["cf1:age","cf1:name","cf2:cellphone"]。在创建新的Result对象的时候也必须遵循这样的规则,因此这里使用了treemap。不要问我为什么,我特么调了一整天才发现这个问题。

2.6 重新打包分发

进入hbase-indexer-engine的工程,执行mvn clean install -DskipTests进行打包,稍等片刻便好了

在target下面有一个hbase-indexer-engine-1.5-cdh5.7.0.jar文件(这里的版本号对应自己的环境),将这个jar文件分发到集群的hbase-indexer的目录下,CDH版本放在在/opt/cloudera/parcels/CDH/jars/下即可。

然后重启服务进行测试。

三、结果

数据跑了一天,Solr中对应的条数和HBase的一样。
因此我们修改的代码是有效的。

四、思考

上面我们是合并了数据然后全部覆盖到Solr的,如果HBase存在大量的Update操作,那么势必每次列数都会和映射到Solr里面的列不一致,因此每次都会从HBase中get一次数据,这样肯定会影响性能。那么我们能否使用ReadRow.Never模式 + Solr的原子更新的方式来实现呢?

Lily HBase Indexer同步HBase二级索引到Solr丢失数据的问题分析的更多相关文章

  1. HBase协处理器同步二级索引到Solr(续)

    一. 已知的问题和不足二.解决思路三.代码3.1 读取config文件内容3.2 封装SolrServer的获取方式3.3 编写提交数据到Solr的代码3.4 拦截HBase的Put和Delete操作 ...

  2. phoenix连接hbase数据库,创建二级索引报错:Error: org.apache.phoenix.exception.PhoenixIOException: Failed after attempts=36, exceptions: Tue Mar 06 10:32:02 CST 2018, null, java.net.SocketTimeoutException: callTimeou

    v\:* {behavior:url(#default#VML);} o\:* {behavior:url(#default#VML);} w\:* {behavior:url(#default#VM ...

  3. HBase协处理器同步二级索引到Solr

    一. 背景二. 什么是HBase的协处理器三. HBase协处理器同步数据到Solr四. 添加协处理器五. 测试六. 协处理器动态加载 一. 背景 在实际生产中,HBase往往不能满足多维度分析,我们 ...

  4. solr6.3 + Hbase Indexer使用MR创建索引,错误Bad return type

    使用solr6.3 + Hbase Indexer ,通过Hbase-indexer从Hbase建立索引到solr中,进行全文搜索. 两种实现方式:① 开启hbase-indexer进行实时同步新数据 ...

  5. CDH版本Hbase二级索引方案Solr key value index

    概述 在Hbase中,表的RowKey 按照字典排序, Region按照RowKey设置split point进行shard,通过这种方式实现的全局.分布式索引. 成为了其成功的最大的砝码. 然而单一 ...

  6. Phoneix(三)HBase集成Phoenix创建二级索引

    一.Hbase集成Phoneix 1.下载 在官网http://www.apache.org/dyn/closer.lua/phoenix/中选择提供的镜像站点中下载与安装的HBase版本对应的版本. ...

  7. hbases索引技术:Lily HBase Indexer介绍

    Lily HBase Indexer 为hbase提供快速查询,他允许不写代码,快速容易的把hbase行索引到solr.Lily HBase Indexer drives HBase indexing ...

  8. HBase 二级索引与Coprocessor协处理器

    Coprocessor简介 (1)实现目的 HBase无法轻易建立“二级索引”: 执行求和.计数.排序等操作比较困难,必须通过MapReduce/Spark实现,对于简单的统计或聚合计算时,可能会因为 ...

  9. HBase的二级索引

    使用HBase存储中国好声音数据的案例,业务描述如下: 为了能高效的查询到我们需要的数据,我们在RowKey的设计上下了不少功夫,因为过滤RowKey或者根据RowKey查询数据的效率是最高的,我们的 ...

随机推荐

  1. 九度oj 题目1014:排名

    题目描述:     今天的上机考试虽然有实时的Ranklist,但上面的排名只是根据完成的题数排序,没有考虑每题的分值,所以并不是最后的排名.给定录取分数线,请你写程序找出最后通过分数线的考生,并将他 ...

  2. 在VS2017中编写Python程序

    最近开始了python的学习,在搭建完python环境之后,在选择IDE的时候陷入了困境,首先选择的是PyCharm但是用着还是不习惯,毕竟用VS开发了几年了,突然换软件总感觉有点不适应,就想到了强大 ...

  3. BZOJ 3925 [Zjoi2015]地震后的幻想乡 ——期望DP

    我们只需要考虑$\sum F(x)P(x)$的和, $F(x)$表示第x大边的期望,$P(x)$表示最大为x的概率. 经过一番化简得到$ans=\frac{\sum T(x-1)}{m+1}$ 所以就 ...

  4. 算法复习——凸包加旋转卡壳(poj2187)

    题目: Description Bessie, Farmer John's prize cow, has just won first place in a bovine beauty contest ...

  5. P2015 二叉苹果树 (树形动规)

    题目描述 有一棵苹果树,如果树枝有分叉,一定是分2叉(就是说没有只有1个儿子的结点) 这棵树共有N个结点(叶子点或者树枝分叉点),编号为1-N,树根编号一定是1. 我们用一根树枝两端连接的结点的编号来 ...

  6. Ceph纠删码编码机制

    1 Ceph简述 Ceph是一种性能优越,可靠性和可扩展性良好的统一的分布式云存储系统,提供对象存储.块存储.文件存储三种存储服务.Ceph文件系统中不区分节点中心,在理论上可以实现系统规模的无限扩展 ...

  7. C Looooops(poj 2115)

    大致题意: 对于C的for(i=A ; i!=B ;i +=C)循环语句,问在k位存储系统中循环几次才会结束. 若在有限次内结束,则输出循环次数. 否则输出死循环. 解题思路: 题意不难理解,只是利用 ...

  8. CodeForces 379D 暴力 枚举

    D. New Year Letter time limit per test 1 second memory limit per test 256 megabytes input standard i ...

  9. Linux 下 GCC 编译共享库控制导出函数的方法

    通过一些实际项目的开发,发现这样一个现象,在 Windows 下可以通过指定 __declspec(dllexport) 定义来控制 DLL(动态链接库)中哪些函数可以导出,暴露给其他程序链接使用,哪 ...

  10. (25)python urllib库

    urllib包包含4个模块,在python3里urllib导入要用包名加模块名的方式. 1.urllib.request 该模块主要用于打开HTTP协议的URL import urllib.reque ...