预分Region 与 不预分Region 的测试:
1 不预分Region:
      23~29秒插入100W数据   并且蛋疼的是每次都写入一个 RegionServer 且  只在一个 Region 相当于人为制造的网络风暴。
2  预分Region(3节点分了3个Region)
     写入 18~19秒 100W 数据。  55555 每秒。(本机网络请求已满。否则应该线性增长)

下面是代码; 
(注释部分为不分 Region 的情况)
  1. package com.rocky.util;
  2. import com.rocky.dao.HBaseFactory;
  3. import org.apache.hadoop.conf.Configuration;
  4. import org.apache.hadoop.hbase.*;
  5. import org.apache.hadoop.hbase.client.*;
  6. import org.apache.hadoop.hbase.util.Bytes;
  7. import java.io.IOException;
  8. import java.util.ArrayList;
  9. import java.util.List;
  10. import java.util.Random;
  11. import java.util.UUID;
  12. /**
  13. * Created by rocky_24 on 2016/2/25.
  14. */
  15. public class putData {
  16. public static void main(String[] args) throws IOException {
  17. // /**
  18. // * 分16
  19. // */
  20. // byte[][] preforkRegions = new byte[10+6][];
  21. // int k=0;
  22. // System.out.println(preforkRegions.length);
  23. // for(char i='0';i<='9';i++){
  24. // preforkRegions[k++]=(""+i).getBytes();
  25. // }
  26. // for(char i='a';i<='f';i++){
  27. // preforkRegions[k++]=(""+i).getBytes();
  28. // }
  29. byte[][] preforkRegions = new byte[3][];
  30. preforkRegions [0] = ("5").getBytes();
  31. preforkRegions [1] = ("10").getBytes();
  32. preforkRegions [2] = ("z").getBytes();
  33. createTable("access_logs","f",preforkRegions);
  34. System.out.println(TimeUtils.getIntradayDateAndTime());
  35. String [] pages = {"/","/a.html","/b.html","/c.html"};
  36. Configuration con = HBaseFactory.getConf();
  37. HTable table = new HTable(con,"access_logs");
  38. // Table table = HBaseFactory.getHBaseConnection().getTable(TableName.valueOf("access_logs"));
  39. table.setWriteBufferSize(1024 * 1024 * 6);
  40. table.setAutoFlushTo(false);
  41. int totalRecords = 10000;
  42. Random rand = new Random();
  43. System.out.println("importing " + totalRecords + " records ....");
  44. List<Put> list = new ArrayList<Put>();
  45. for (int i=0; i < totalRecords * 100; i++) {
  46. String rowkey = UUID.randomUUID().toString();
  47. String randomPage = pages[rand.nextInt(pages.length)];
  48. Put put = new Put(rowkey.getBytes());
  49. put.addColumn(Bytes.toBytes("f"), null, Bytes.toBytes(randomPage));
  50. list.add(put);
  51. }
  52. System.out.println("put数据装载完毕:"+list.size());
  53. System.out.println(TimeUtils.getIntradayDateAndTime());
  54. table.put(list);
  55. table.flushCommits();
  56. table.close();
  57. System.out.println("done");
  58. System.out.println(TimeUtils.getIntradayDateAndTime());
  59. }
  60. /**
  61. * 创建表
  62. * @param tableName
  63. * @param columnFamily
  64. * @param spilts
  65. * @throws IOException
  66. */
  67. public static void createTable(String tableName, String columnFamily, byte[][] spilts) throws IOException {
  68. Connection connection = HBaseFactory.getHBaseConnection();
  69. Admin admin = connection.getAdmin();
  70. if (admin.tableExists(TableName.valueOf(tableName))) {
  71. admin.disableTable(TableName.valueOf(tableName));
  72. admin.deleteTable(TableName.valueOf(tableName));
  73. }
  74. HTableDescriptor tableDesc = new HTableDescriptor(TableName.valueOf(tableName));
  75. tableDesc.addFamily(new HColumnDescriptor(columnFamily));
  76. if (spilts == null) {
  77. admin.createTable(tableDesc);
  78. } else {
  79. admin.createTable(tableDesc, spilts);
  80. }
  81. admin.close();
  82. }
  83. }

观察 16010端口 查看 Region 分裂情况如下:

   = =! 多分了一个 Region 因为HBase 在分裂创建时候是拿到
asscii 码的 0 到 数字[10]

HBase 1.1.2 优化插入 Region预分配的更多相关文章

  1. 【转载】HBase 数据库检索性能优化策略

    转自:http://www.ibm.com/developerworks/cn/java/j-lo-HBase/index.html 高性能 HBase 数据库 本文首先介绍了 HBase 数据库基本 ...

  2. HBase 数据库检索性能优化策略--转

    https://www.ibm.com/developerworks/cn/java/j-lo-HBase/index.html HBase 数据表介绍 HBase 数据库是一个基于分布式的.面向列的 ...

  3. HBase 数据库检索性能优化策略

    HBase 数据表介绍 HBase 数据库是一个基于分布式的.面向列的.主要用于非结构化数据存储用途的开源数据库.其设计思路来源于 Google 的非开源数据库"BigTable" ...

  4. hbase读的性能优化

    任何系统都会有各种各样的问题,有些是系统本身设计问题,有些却是使用姿势问题.HBase也一样,在真实生产线上大家或多或少都会遇到很多问题,有些是HBase还需要完善的,有些是我们确实对它了解太少.总结 ...

  5. mysql如何优化插入记录速度

    插入记录时,影响插入速度的主要是索引.唯一性校验.一次插入记录条数等.根据这些情况,可以分别进行优化,本节将介绍优化插入记录速度的几种方法. 一.对于MyISAM引擎表常见的优化方法如下:     1 ...

  6. hbase优化之region合并和压缩

    HBASE操作:(一般先合并region然后再压缩) 一 .Region合并: merge_region   'regionname1','regionname2' ,'true'  --true代表 ...

  7. HBase(八): 表结构设计优化

    在 HBase(六): HBase体系结构剖析(上) 介绍过,Hbase创建表时,只需指定表名和至少一个列族,基于HBase表结构的设计优化主要是基于列族级别的属性配置,如下图: 目录: BLOOMF ...

  8. HBase 架构与工作原理5 - Region 的部分特性

    本文系转载,如有侵权,请联系我:likui0913@gmail.com Region Region 是表格可用性和分布的基本元素,由列族(Column Family)构成的 Store 组成.对象的层 ...

  9. Java客户端访问HBase集群解决方案(优化)

    测试环境:Idea+Windows10 准备工作: <1>.打开本地 C:\Windows\System32\drivers\etc(系统默认)下名为hosts的系统文件,如果提示当前用户 ...

随机推荐

  1. atom安装插件失败 latex

    用atom写latex 链接 http://www.cnblogs.com/schaepher/p/5934184.html 但在gui下安装插件失败 按照以下步骤解决了 安装gitbash cd . ...

  2. [NOIP2011提高组]Mayan游戏

    题目:洛谷P1312.Vijos P1738.codevs1136. 题目大意:在一个7行5列的棋盘(左下角坐标0,0)上,有一些不同颜色的棋子. 规定某一时刻,连续三个横排或竖列的棋子颜色相同,则它 ...

  3. fdisk 添加逻辑分区

    [root@riyimei ~]# fdisk /dev/sdb WARNING: DOS-compatible mode is deprecated. It's strongly recommend ...

  4. 普通码农和CTO之间的差距

    虚心 学习的第一步是--"我不懂".一个空是水杯才能装水,如果是满的就没有办法装水了."自我肯定"是一种非常难克服的习惯,经常会有朋友看到某个技术或者实现之后不 ...

  5. Linux学习总结(10)——Linux查看CPU和内存使用情况

    在系统维护的过程中,随时可能有需要查看 CPU 使用率,并根据相应信息分析系统状况的需要.在 CentOS 中,可以通过 top 命令来查看 CPU 使用状况.运行 top 命令后,CPU 使用状态会 ...

  6. COGS——T 803. [USACO Hol10] 政党 || 1776: [Usaco2010 Hol]cowpol 奶牛政坛

    http://www.lydsy.com/JudgeOnline/problem.php?id=1776||http://cogs.pro/cogs/problem/problem.php?pid=8 ...

  7. BZOJ 4236~4247 题解

    BZOJ 4236 JOIOJI f[i][0..2]表示前i个字符中′J′/′O′/′I′的个数 将二元组<f[i][0]−f[i][1],f[i][1]−f[i][2]>扔进map,记 ...

  8. A题之变态青蛙跳

    一仅仅青蛙一次能够跳上1级台阶,也能够跳上2级--它也能够跳上n级. 求该青蛙跳上一个n级的台阶总共同拥有多少种跳法. 分析: 这是一个斐波拉契数列的引申问题,先来看看斐波拉契数列: n<=1, ...

  9. JNI 资源释放

    JNI 编程实现了 native code 和 Java 程序的交互,因此 JNI 代码编程既遵循 native code 编程语言的编程规则,同时也遵守 JNI 编程的文档规范.在内存管理方面,na ...

  10. Adobe Photoshop CC 2015(PS CC 2015)看图不说话