1. hadoop生态系统

zookeeper负责协调 hbase必须依赖zookeeper

flume 日志工具

sqoop 负责 hdfs dbms 数据转换 数据到关系型数据库转换
大数据学习群119599574

  1. hbase简介

hadoop database

  • 是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库
  • 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce 来处理Hbase中的海量数据,利用Zookeeper作为其分布式系统服务
  • 主要用来存储非结构化和半结构化的松散数据(列存NoSql数据库)

hbase数据模型

ROW KEY

  1. 决定一行数据
  2. 按照字段顺序排序
  3. Row key只能存储64k的字节数据

Column Family列族 &qualifier列

  • Hbase表中的每个列都归属于某个列族,列族必须作为表模式定义的一部分给出 如create 'test';
  • 列名以列族作为前缀,每个“列族”都可以y9uo多个列成员column,如test:testfirst,新的列成员可以随后按需、动态加入;
  • 权限控制,存储以及调优都是列族层面进行的
  • Hbase把同一列族里面的数据存储在同一目录下,由几个文件保存

Timestamp 时间戳

  • 在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
  • 时间戳的类型是 64位整型。
  • 时间戳可以由HBase(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间。
  • 时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。

cell 单元格

  1. 由行和列的坐标交叉决定;
  2. 单元格是有版本的;
  3. 单元格的内容是未解析的字节数组;
  • 由{row key, column( =<family> +<qualifier>), version} 唯一确定的单元。
  • cell中的数据是没有类型的,全部是字节码形式存贮。

HLog(wal log)

  • HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
  • HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。

HBase 架构

client

  1. 包含访问HBase的接口并维护cache来加快对HBase的访问

zookeeper

  1. 保证任何时候,集群中只有一个master
  2. 存储所有Region的寻址入口
  3. 实时监控Region server的上线和下线信息。并实时通知master
  4. 存储Hbase的 schema 和table元数据

Master

  1. 为Region server 分配region
  2. 负责Region server的负载均衡
  3. 发现失效的Region server并重新分配骑上的region
  4. 管理用户对table的增删改操作

RegionServer

  1. Region server维护region,处理对这些region的IO请求
  2. Region server负责切分在运行过程中变得过大的region

Region

  1. Hbase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据
  2. 每个表开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阈值时,region就会分为两个新的region(裂变)
  3. 当table中的行不断增多,就会有越来越多的region。这样一张完整的表保存在多个regionServer上。
    大数据学习群119599574

Memstore与storefile

  1. 一个region由多个store组成,一个store对应一个列族(cf)
  2. store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcacher进程写入storefile,每次写入形成单独的一个storefile
  3. 当storefile文件的数量增长到一定阈值后,系统会进程合并 (minor、major compaction),在合并过程中会进行版本合并和删除工作major形成更大的storefile
  4. 当一个region所有storefile的大小和数量超过一定阈值后,会把当前的regjion分割为两个,并由hmaster分配到相应的regionserver服务器,达到负载均衡
  5. 客户端检索数据,现在memstore找,找不到再找storefile

HRegion

  1. Hregion是HBase中分布式存储和负载均衡的最小单元。最小单元就表示不同的HRegion可以分布在不通的HRegion server上
  2. HRegion 由一个或者多个Store组成,每个store保存一个column family
  3. 每个Store又由一个memStore和0至多个StoreFile组成。 StoreFIle 以HFILe格式保存于HDFS上。

大数据学习系列之—HBASE的更多相关文章

  1. 大数据学习系列之三 ----- HBase Java Api 图文详解

    版权声明: 作者:虚无境 博客园出处:http://www.cnblogs.com/xuwujing CSDN出处:http://blog.csdn.net/qazwsxpcm 个人博客出处:http ...

  2. 大数据学习系列之九---- Hive整合Spark和HBase以及相关测试

    前言 在之前的大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 中介绍了集群的环境搭建,但是在使用hive进行数据查询的时候会非常的慢,因为h ...

  3. 大数据学习系列之五 ----- Hive整合HBase图文详解

    引言 在上一篇 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机) 和之前的大数据学习系列之二 ----- HBase环境搭建(单机) 中成功搭建了Hive和HBase的环 ...

  4. 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

    引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单 ...

  5. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  6. 大数据学习系列之六 ----- Hadoop+Spark环境搭建

    引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合 ...

  7. 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法

    前言 在搭建大数据Hadoop相关的环境时候,遇到很多了很多错误.我是个喜欢做笔记的人,这些错误基本都记载,并且将解决办法也写上了.因此写成博客,希望能够帮助那些搭建大数据环境的人解决问题. 说明: ...

  8. 大数据学习系列之二 ----- HBase环境搭建(单机)

    引言 在上一篇中搭建了Hadoop的单机环境,这一篇则搭建HBase的单机环境 环境准备 1,服务器选择 阿里云服务器:入门型(按量付费) 操作系统:linux CentOS 6.8 Cpu:1核 内 ...

  9. 大数据学习路线分享-Hbase shell的基本操作完整流程

    HBase的命令行工具,最简单的接口,适合HBase管理使用,可以使用shell命令来查询HBase中数据的详细情况.安装完HBase之后,启动hadoop集群(利用hdfs存储),启动zookeep ...

随机推荐

  1. PL/SQL编程基础——PL/SQL简介

    课程教师:李兴华 课程学习者:阳光罗诺 日期:2018-07-28 知识点: 1. 了解PL/SQL的主要特点 2. 掌握PL/SQL块的基本结构 PL/SQL PL/SQL是Oracle在关系数据库 ...

  2. VS编译报错Error2019

    1.对项目右键,属性,链接器,常规,附加库目录,查看lib的路径是否填全了,写对了. 2.是否对项目添加引用.

  3. 浏览器跨域访问WebApi

      webapi地址:wapapi.ebcbuy.com web地址:wapweb.ebcbuy.com   在默认情况下这两个域名属于两个不同的域,他们之间的交互存在跨域的问题,但因为他们都同属于一 ...

  4. August 24th 2017 Week 34th Thursday

    If you have choices, choose the best. If you have no choice, do the best. 如果有选择,那就选择最好的:如果没有选择,那就努力做 ...

  5. Python 处理脚本的命令行参数(二):使用click

    安装click pip install click 使用步骤 使用@click.command() 装饰一个函数,使之成为命令行接口 使用@click.option() 等装饰函数,为其添加命令行选项 ...

  6. [T-ARA][Sugar Free]

    歌词来源:http://music.163.com/#/song?id=29343991 作曲 : 新沙洞老虎/범이낭이 [作曲 : 新沙洞老虎/버미낭이] [作曲 : 新沙洞老虎/p/beo-mi- ...

  7. codeforces 932E Team Work(组合数学、dp)

    codeforces 932E Team Work 题意 给定 \(n(1e9)\).\(k(5000)\).求 \(\Sigma_{x=1}^{n}C_n^xx^k\). 题解 解法一 官方题解 的 ...

  8. jquery 中 $.map 用法

    $.map(data,function(item,index){return XXX}) 遍历data数组中的每个元素,并按照return中的计算方式 形成一个新的元素,放入返回的数组中 var b ...

  9. 关于使用 CALayer 中 mask 的一些技巧

    CALayer 拥有 mask 属性,Apple 的官方解释如下: An optional layer whose alpha channel is used to mask the layer’s ...

  10. Scala 经典的模式匹配和尾递归

    Scala 经典的模式匹配和尾递归 package io import java.io.{BufferedWriter, File, FileWriter} import java.text.Simp ...