Hbase的表会被划分为1....n个Region,被托管在RegionServer中。Region二个重要的属性:Startkey与EndKey表示这个Region维护的rowkey的范围,当我们要读写数据时,如果rowkey落在某个start-end key范围内,那么就会定位到目标region并且读写到相关的数据。

默认情况下,当我们通过hbaseAdmin指定TableDescriptor来创建一张表时,只有一个region正处于混沌时期,start-end key无边界,可谓海纳百川。所有的rowkey都写入到这个region里,然后数据越来越多,region的size越来越大时,大到一定的阀值,hbase就会将region一分为二,成为2个region,这个过程称为分裂(region-split)。

如果我们就这样默认建表,表里不断的put数据,更严重的是我们的rowkey还是顺序增大的,是比较可怕的。存在的缺点比较明显:首先是热点写,我们总是向最大的start key所在的region写数据,因为我们的rowkey总是会比之前的大,并且hbase的是按升序方式排序的。所以写操作总是被定位到无上界的那个region中;其次,由于热点,我们总是往最大的start key的region写记录,之前分裂出来的region不会被写数据,有点打入冷宫的感觉,他们都处于半满状态,这样的分布也是不利的。

如果在写比较频繁的场景下,数据增长太快,split的次数也会增多,由于split是比较耗费资源的,所以我们并不希望这种事情经常发生。

在集群中为了得到更好的并行性,我们希望有好的load blance,让每个节点提供的请求都是均衡的,我们也不希望,region不要经常split,因为split会使server有一段时间的停顿,如何能做到呢?

随机散列与预分区二者结合起来,是比较完美的。预分区一开始就预建好了一部分region,这些region都维护着自己的start-end keys,在配合上随机散列,写数据能均衡的命中这些预建的region,就能解决上面的那些缺点,大大提供性能。

一、解决思路

提供两种思路:hash与partition。

1、hash方案

hash就是rowkey前面由一串随机字符串组成,随机字符串生成方式可以由SHA或者MD5方式生成,只要region所管理的start-end keys范围比较随机,那么就可以解决写热点问题。例如:

  1. long currentId = 1L;
  2. byte [] rowkey = Bytes.add(MD5Hash.getMD5AsHex(Bytes.toBytes(currentId))
  3. .substring(0, 8).getBytes(),Bytes.toBytes(currentId));

假如rowkey原本是自增长的long型,可以将rowkey转为hash再转为bytes,加上本身id转为bytes,这样就生成随便的rowkey。那么对于这种方式的rowkey设计,如何去进行预分区呢?

  1. 取样,先随机生成一定数量的rowkey,将取样数据按升序排序放到一个集合里。
  2. 根据预分区的region个数,对整个集合平均分割,即是相关的splitkeys。
  3. HBaseAdmin.createTable(HTableDescriptor tableDescriptor,byte[][] splitkeys)可以指定预分区的splitkey,即指定region间的rowkey临界值。

创建split计算器,用于从抽样数据生成一个比较合适的splitkeys

  1. public class HashChoreWoker implements SplitKeysCalculator{
  2. //随机取机数目
  3. private int baseRecord;
  4. //rowkey生成器
  5. private RowKeyGenerator rkGen;
  6. //取样时,由取样数目及region数相除所得的数量.
  7. private int splitKeysBase;
  8. //splitkeys个数
  9. private int splitKeysNumber;
  10. //由抽样计算出来的splitkeys结果
  11. private byte[][] splitKeys;
  12. public HashChoreWoker(int baseRecord, int prepareRegions) {
  13. this.baseRecord = baseRecord;
  14. //实例化rowkey生成器
  15. rkGen = new HashRowKeyGenerator();
  16. splitKeysNumber = prepareRegions - 1;
  17. splitKeysBase = baseRecord / prepareRegions;
  18. }
  19. public byte[][] calcSplitKeys() {
  20. splitKeys = new byte[splitKeysNumber][];
  21. //使用treeset保存抽样数据,已排序过
  22. TreeSet<byte[]> rows = new TreeSet<byte[]>(Bytes.BYTES_COMPARATOR);
  23. for (int i = 0; i < baseRecord; i++) {
  24. rows.add(rkGen.nextId());
  25. }
  26. int pointer = 0;
  27. Iterator<byte[]> rowKeyIter = rows.iterator();
  28. int index = 0;
  29. while (rowKeyIter.hasNext()) {
  30. byte[] tempRow = rowKeyIter.next();
  31. rowKeyIter.remove();
  32. if ((pointer != 0) && (pointer % splitKeysBase == 0)) {
  33. if (index < splitKeysNumber) {
  34. splitKeys[index] = tempRow;
  35. index ++;
  36. }
  37. }
  38. pointer ++;
  39. }
  40. rows.clear();
  41. rows = null;
  42. return splitKeys;
  43. }
  44. }

KeyGenerator及实现

  1. //interface
  2. public interface RowKeyGenerator {
  3. byte [] nextId();
  4. }
  5. //implements
  6. public class HashRowKeyGenerator implements RowKeyGenerator {
  7. private long currentId = 1;
  8. private long currentTime = System.currentTimeMillis();
  9. private Random random = new Random();
  10. public byte[] nextId() {
  11. try {
  12. currentTime += random.nextInt(1000);
  13. byte[] lowT = Bytes.copy(Bytes.toBytes(currentTime), 4, 4);
  14. byte[] lowU = Bytes.copy(Bytes.toBytes(currentId), 4, 4);
  15. return Bytes.add(MD5Hash.getMD5AsHex(Bytes.add(lowU, lowT)).substring(0, 8).getBytes(),
  16. Bytes.toBytes(currentId));
  17. } finally {
  18. currentId++;
  19. }
  20. }
  21. }

unit test case测试

  1. @Test
  2. public void testHashAndCreateTable() throws Exception{
  3. HashChoreWoker worker = new HashChoreWoker(1000000,10);
  4. byte [][] splitKeys = worker.calcSplitKeys();
  5. HBaseAdmin admin = new HBaseAdmin(HBaseConfiguration.create());
  6. TableName tableName = TableName.valueOf("hash_split_table");
  7. if (admin.tableExists(tableName)) {
  8. try {
  9. admin.disableTable(tableName);
  10. } catch (Exception e) {
  11. }
  12. admin.deleteTable(tableName);
  13. }
  14. HTableDescriptor tableDesc = new HTableDescriptor(tableName);
  15. HColumnDescriptor columnDesc = new HColumnDescriptor(Bytes.toBytes("info"));
  16. columnDesc.setMaxVersions(1);
  17. tableDesc.addFamily(columnDesc);
  18. admin.createTable(tableDesc ,splitKeys);
  19. admin.close();
  20. }

查看建表结果,执行:scan 'hbase:meta'


    以上我们只是显示了部分region的信息,可以看到region的start-end key还是比较随机散列的。同样可以查看hdfs的目录结构,的确和预期的38个预分区一致:


    以上就是按照hash方式,预建好分区,以后再插入数据的时候,也是按照此rowkeyGenerator的方式生成rowkey。

2、partition的方式

partition顾名思义就是分区式,这种分区有点类似于mapreduce中的partitioner,将区域用长整数作为分区号,每个region管理着相应的区域数据,在rowkey生成时,将ID取模后,然后拼上ID整体作为rowkey,这个比较简单,不需要取样,splitkeys也非常简单,直接是分区号即可。直接上代码:

  1. public class PartitionRowKeyManager implements RowKeyGenerator,
  2. SplitKeysCalculator {
  3. public static final int DEFAULT_PARTITION_AMOUNT = 20;
  4. private long currentId = 1;
  5. private int partition = DEFAULT_PARTITION_AMOUNT;
  6. public void setPartition(int partition) {
  7. this.partition = partition;
  8. }
  9. public byte[] nextId() {
  10. try {
  11. long partitionId = currentId % partition;
  12. return Bytes.add(Bytes.toBytes(partitionId),
  13. Bytes.toBytes(currentId));
  14. } finally {
  15. currentId++;
  16. }
  17. }
  18. public byte[][] calcSplitKeys() {
  19. byte[][] splitKeys = new byte[partition - 1][];
  20. for(int i = 1; i < partition ; i ++) {
  21. splitKeys[i-1] = Bytes.toBytes((long)i);
  22. }
  23. return splitKeys;
  24. }
  25. }

calcSplitKeys方法比较单纯,splitkey就是partition的编号,测试类如下:

  1. @Test
  2. public void testPartitionAndCreateTable() throws Exception{
  3. PartitionRowKeyManager rkManager = new PartitionRowKeyManager();
  4. //只预建10个分区
  5. rkManager.setPartition(10);
  6. byte [][] splitKeys = rkManager.calcSplitKeys();
  7. HBaseAdmin admin = new HBaseAdmin(HBaseConfiguration.create());
  8. TableName tableName = TableName.valueOf("partition_split_table");
  9. if (admin.tableExists(tableName)) {
  10. try {
  11. admin.disableTable(tableName);
  12. } catch (Exception e) {
  13. }
  14. admin.deleteTable(tableName);
  15. }
  16. HTableDescriptor tableDesc = new HTableDescriptor(tableName);
  17. HColumnDescriptor columnDesc = new HColumnDescriptor(Bytes.toBytes("info"));
  18. columnDesc.setMaxVersions(1);
  19. tableDesc.addFamily(columnDesc);
  20. admin.createTable(tableDesc ,splitKeys);
  21. admin.close();
  22. }

同样我们可以看看meta表和hdfs的目录结果,其实和hash类似,region都会分好区。

通过partition实现的loadblance写的话,当然生成rowkey方式也要结合当前的region数目取模而求得,大家同样也可以做些实验,看看数据插入后的分布。

在这里也顺提一下,如果是顺序的增长型原id,可以将id保存到一个数据库,传统的也好,redis的也好,每次取的时候,将数值设大1000左右,以后id可以在内存内增长,当内存数量已经超过1000的话,再去load下一个,有点类似于oracle中的sqeuence.

随机分布加预分区也不是一劳永逸的。因为数据是不断地增长的,随着时间不断地推移,已经分好的区域,或许已经装不住更多的数据,当然就要进一步进行split了,同样也会出现性能损耗问题,所以我们还是要规划好数据增长速率,观察好数据定期维护,按需分析是否要进一步分行手工将分区再分好,也或者是更严重的是新建表,做好更大的预分区然后进行数据迁移。如果数据装不住了,对于partition方式预分区的话,如果让它自然分裂的话,情况分严重一点。因为分裂出来的分区号会是一样的,所以计算到partitionId的话,其实还是回到了顺序写年代,会有部分热点写问题出现,如果使用partition方式生成主键的话,数据增长后就要不断地调整分区了,比如增多预分区,或者加入子分区号的处理.(我们的分区号为long型,可以将它作为多级partition)

以上基本已经讲完了防止热点写使用的方法和防止频繁split而采取的预分区。但rowkey设计,远远也不止这些,比如rowkey长度,然后它的长度最大可以为char的MAXVALUE,但是看过之前我写KeyValue的分析知道,我们的数据都是以KeyValue方式存储在MemStore或者HFile中的,每个KeyValue都会存储rowKey的信息,如果rowkey太大的话,比如是128个字节,一行10个字段的表,100万行记录,光rowkey就占了1.2G+所以长度还是不要过长,另外设计,还是按需求来吧。

rowkey散列和预分区设计解决hbase热点问题(数据倾斜)的更多相关文章

  1. HBase 热点问题——rowkey散列和预分区设计

    热点发生在大量的client直接访问集群的一个或极少数个节点(访问可能是读,写或者其他操作).大量访问会使热点region所在的单个机器超出自身承受能力,引起性能下降甚至region不可用,这也会影响 ...

  2. HBase Rowkey的散列与预分区设计

    转自:http://www.cnblogs.com/bdifn/p/3801737.html 问题导读:1.如何防止热点?2.如何预分区?扩展:为什么会产生热点存储? HBase中,表会被划分为1.. ...

  3. 理解Hbase RowKey的字典排序;HBase Rowkey的散列与预分区设计

    HBase是三维有序存储的,是指rowkey(行键),column key(column family和qualifier)和TimeStamp(时间戳)这个三个维度是依照ASCII码表排序的. HB ...

  4. 关于Hbase的预分区,解决热点问题

    Hbase默认建表是只有一个分区的,开始的时候所有的数据都会查询这个分区,当这个分区达到一定大小的时候,就会进行做split操作: 因此为了确保regionserver的稳定和高效,应该尽量避免reg ...

  5. 【HBase】带你了解一哈HBase的各种预分区

    目录 简单了解 概述 设置预分区 一.手动指定预分区 二.使用16进制算法生成预分区 三.将分区规则写在文本文件中 四.使用JavaAPI进行预分区 简单了解 概述 由上图可以看出,每一个表都有属于自 ...

  6. 散列(Hash)表入门

    一.概述 以 Key-Value 的形式进行数据存取的映射(map)结构 简单理解:用最基本的向量(数组)作为底层物理存储结构,通过适当的散列函数在词条的关键码与向量单元的秩(下标)之间建立映射关系 ...

  7. js 实现数据结构 -- 散列(HashTable)

    原文: 在Javascript 中学习数据结构与算法. 概念: HashTable 类, 也叫 HashMap 类,是 Dictionary 类的一种散列表实现方式. 散列算法的作用是尽可能快地在数据 ...

  8. Django 用散列隐藏数据库中主键ID

    最近看到了一篇讲Django性能测试和优化的文章, 文中除了提到了很多有用的优化方法, 演示程序的数据库模型写法我觉得也很值得参考, 在这单独记录下. 原文的演示代码有些问题, 我改进了下, 这里可以 ...

  9. Redis 四:存储类型之散列类型

    1.散列类型表达方式简介: =========================================== 键 字段 值 =================================== ...

随机推荐

  1. Java 显示调用隐式调用

    当你没有使用父类默认的构造方法时,此时在子类的构造方法中就需要显示的调用父类定义的构造方法.比如:父类:class Animal{ private String name; //如果你定义一个新的构造 ...

  2. 001_C/C++笔试题_考察C/C++语言基础概念

    (一)文章来自:C/C++笔试题-主要考察C/C++语言基础概念.算法及编程,附参考答案 (二)基础概念 2. 头文件中的ifndef/define/endif的作用? 答:防止该头文件被重复引用. ...

  3. DP基础(线性DP)总结

    DP基础(线性DP)总结 前言:虽然确实有点基础......但凡事得脚踏实地地做,基础不牢,地动山摇,,,嗯! LIS(最长上升子序列) dp方程:dp[i]=max{dp[j]+1,a[j]< ...

  4. mysql 从一个表中查数据并插入另一个表实现方法

    类别一. 如果两张张表(导出表和目标表)的字段一致,并且希望插入全部数据,可以用这种方法: INSERT INTO  目标表  SELECT  * FROM  来源表 ; 例如,要将 articles ...

  5. js中的bind方法的实现方法

    js中目前我遇见的改变作用域的5中方法:call, apply, eval, with, bind. var obj = { color: 'green' } function demo () { c ...

  6. Flutter移动电商实战 --(3)底部导航栏制作

    1.cupertino_IOS风格介绍 在Flutter里是有两种内置风格的: material风格: Material Design 是由 Google 推出的全新设计语言,这种设计语言是为手机.平 ...

  7. Bootstrap4项目开发实战视频教程

    一.企业网站项目 课件 0.课程简介 1.顶部区域的制作 2.导航区域的制作 3.轮播区域的制作 4.产品区域的制作 5.最新资讯区域的制作 6.底部区域的制作 二.化妆品网站项目 1.项目初始化_导 ...

  8. opencv配置运行问题

    opencv是图像处理常用的一个库文件,对于一些新手来说,配置完后运行,总会有这样或者那样的错误,会挫伤其学习积极性,这里将常见的几种错误列举出来,供其参考和使用. 方法/步骤第一种错误叫no suc ...

  9. C++ STL——string和vector

    目录 一 STL基本概念 二 string容器 三 vector容器 3.1 vector动态增长原理 3.2 vector构造函数 3.3 vector常用赋值操作 3.4 vector大小操作 3 ...

  10. PCL中有哪些可用的PointT类型(4)

    博客转载自:http://www.pclcn.org/study/shownews.php?lang=cn&id=269 PointWithViewpoint - float x, y, z, ...