【HBase】表的version
建表、添加数据
Examples:
hbase> create 'ns1:t1', 'f1', SPLITS => ['10', '20', '30', '40']
hbase> create 't1', 'f1', SPLITS => ['10', '20', '30', '40']
hbase> create 't1', 'f1', SPLITS_FILE => 'splits.txt', OWNER => 'johndoe'
hbase> create 't1', {NAME => 'f1', VERSIONS => 5}, METADATA => { 'mykey' => 'myvalue' }
hbase> # Optionally pre-split the table into NUMREGIONS, using
hbase> # SPLITALGO ("HexStringSplit", "UniformSplit" or classname)
hbase> create 't1', 'f1', {NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}
hbase> create 't1', 'f1', {NUMREGIONS => 15, SPLITALGO => 'HexStringSplit', REGION_REPLICATION => 2, CONFIGURATION => {'hbase.hregion.scan.loadColumnFamiliesOnDemand' => 'true'}}
hbase> create 't1', {NAME => 'f1', DFS_REPLICATION => 1}
You can also keep around a reference to the created table:
hbase> t1 = create 't1', 'f1'
Which gives you a reference to the table named 't1', on which you can then
call methods.
hbase(main):003:0> create 'lzl', 'info', SPLITS => ['10', '20', '30', '40']
0 row(s) in 2.4090 seconds
=> Hbase::Table - lzl
hbase(main):004:0> put 'lzl','01','info:name','lzl'
0 row(s) in 0.3180 seconds
hbase(main):005:0> put 'lzl','11','info:name','lzl2'
0 row(s) in 0.0250 seconds
hbase(main):006:0> put 'lzl','31','info:name','lzl3'
0 row(s) in 0.0530 seconds
查看版本VERSION => 1
hbase(main):007:0> describe 'lzl'
Table lzl is ENABLED
lzl
COLUMN FAMILIES DESCRIPTION
{NAME => 'info', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0',
BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}
1 row(s) in 0.0690 seconds
hbase(main):008:0>
新增VERSION => 3
hbase(main):008:0> alter 'lzl' ,{NAME=>'info', VERSIONS=>3}
Updating all regions with the new schema...
0/5 regions updated.
5/5 regions updated.
Done.
0 row(s) in 3.3500 seconds
hbase(main):009:0>
修改数据
hbase(main):009:0> put 'lzl','01','info:name','hhh'
0 row(s) in 0.0300 seconds
hbase(main):010:0> scan 'lzl'
ROW COLUMN+CELL
01 column=info:name, timestamp=1570830343144, value=hhh
11 column=info:name, timestamp=1570829294234, value=lzl2
31 column=info:name, timestamp=1570829314499, value=lzl3
3 row(s) in 0.1660 seconds
hbase(main):011:0>
查看VERSION => 3数据
hbase(main):019:0> scan 'lzl',{VERSIONS => 1}
ROW COLUMN+CELL
01 column=info:name, timestamp=1570830343144, value=hhh
11 column=info:name, timestamp=1570829294234, value=lzl2
31 column=info:name, timestamp=1570829314499, value=lzl3
3 row(s) in 0.0660 seconds
hbase(main):020:0> put 'lzl','01','info:name','zzz'
0 row(s) in 0.0180 seconds
hbase(main):021:0> scan 'lzl',{VERSIONS => 3}
ROW COLUMN+CELL
01 column=info:name, timestamp=1570830773469, value=zzz
01 column=info:name, timestamp=1570830343144, value=hhh
01 column=info:name, timestamp=1570829280377, value=lzl
11 column=info:name, timestamp=1570829294234, value=lzl2
31 column=info:name, timestamp=1570829314499, value=lzl3
3 row(s) in 0.0620 seconds
hbase(main):022:0>
HBase会存储最近的3个VERSION
hbase> create ‘ns1:t1’, ‘f1’, SPLITS => [‘10’, ‘20’, ‘30’, ‘40’]
按rowkey切分建表, [‘10’, ‘20’, ‘30’, ‘40’]会有5个region
region均匀分配在regionserver中
【HBase】表的version的更多相关文章
- 数据分页处理系列之二:HBase表数据分页处理
HBase是Hadoop大数据生态技术圈中的一项关键技术,是一种用于分布式存储大数据的列式数据库,关于HBase更加详细的介绍和技术细节,朋友们可以在网络上进行搜寻,笔者本人在接下来的日子里也会写 ...
- 浅谈hbase表中数据导出导入(也就是备份)
转自:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=23916356&id=3321832 最近因为生产环境hbase ...
- hbase操作(shell 命令,如建表,清空表,增删改查)以及 hbase表存储结构和原理
两篇讲的不错文章 http://www.cnblogs.com/nexiyi/p/hbase_shell.html http://blog.csdn.net/u010967382/article/de ...
- HBASE表设计
1. 表的设计 1.1 Pre-Creating Regions 默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数 ...
- HBase表数据分页处理
HBase表数据分页处理 HBase是Hadoop大数据生态技术圈中的一项关键技术,是一种用于分布式存储大数据的列式数据库,关于HBase更加详细的介绍和技术细节,朋友们可以在网络上进行搜寻,笔者本人 ...
- pinpoint 修改hbase表TTL值
操作步骤 查找出数据大的hbase表 root@990fb5560f64:/opt/hbase/hbase-# ls CHANGES.txt LICENSE.txt README.txt conf h ...
- pinpoint:查看hbase表和修改数据过期时间
先做个记录,监控数据量过大时可以设置表的数据过期时间来清理数据. 1. 查找本地数据表大小 [root@ZWZF-CWY-LZY-12 ~]# cd /home/pinpoint/hbase/data ...
- HBase(三): Azure HDInsigt HBase表数据导入本地HBase
目录: hdfs 命令操作本地 hbase Azure HDInsight HBase表数据导入本地 hbase hdfs命令操作本地hbase: 参见 HDP2.4安装(五):集群及组件安装 , ...
- Mapreduce读取Hbase表,写数据到多个Hbase表中
Job端的变化: 通过设置conf,配置输出表,在reduce中获取输出表名字 Configuration conf = job.getConfiguration(); //输出表1 conf.set ...
- 4 hbase表结构 + hbase集群架构及表存储机制
本博文的主要内容有 .hbase读取数据过程 .HBase表结构 .附带PPT http://hbase.apache.org/ 读写的时候,就需要用hbase了,换句话说,就是读写的时候. ...
随机推荐
- Java种sleep和wait的区别
1,sleep方法是Thread类的静态方法,wait()是Object超类的成员方法 2,sleep()方法导致了程序暂停执行指定的时间,让出cpu该其他线程,但是他的监控状态依然保持者,当指定的时 ...
- 第五章:深入Python的dict和set
第五章:深入Python的dict和set 课程:Python3高级核心技术 5.1 dict的abc继承关系 class Mapping(Collection): __slots__ = () &q ...
- [hdu2119]二分图最小覆盖,最大匹配
题意:给一个01矩阵,每次可以选一行或一列,打掉上面所有的1,求打掉所有的1所需的最小次数. 思路:经典的模型了,二分图最小覆盖=最大匹配.所谓最小覆盖是指选最少的点关联所有的边.容易得到将行和列看成 ...
- 今天玩一下python得邮件解析吧,查看邮件内容小儿科,我们下载邮件的附件
直男,直接上代码. 自己看打印的内容 主要功能如下: #如果邮件内容存在链接则返回链接,若不存在则直接下载邮件附件 import imapclient,re import pyzmail #提取邮件里 ...
- Spark2.4.5集群安装与本地开发
下载 官网地址:https://www.apache.org/dyn/closer.lua/spark/spark-2.4.5/spark-2.4.5-bin-hadoop2.7.tgz 验证Java ...
- SQLServer分组加序号,只取某个对象指定条件的前几个
-- -- 删除base里冗余的数据 --UPDATE dbo.N_Order_ServiceLog SET IsDel = 1 WHERE OrderId IN ( SELECT OrderI ...
- spring junit--基础配置
spring官方文档总提示要进行SpringJunit测试必须先配置两个信息: 1.使用Spring IOC功能配置 2.配置正确的JDBC或ORM框架连接数据库 下面进行spring3和hibern ...
- Docker 镜像制作教程:针对不同语言的精简策略
本系列文章将分为三个部分: 第一部分着重介绍多阶段构建(multi-stage builds),因为这是镜像精简之路至关重要的一环.在这部分内容中,我会解释静态链接和动态链接的区别,它们对镜像带来的影 ...
- spring cloud系列教程第四篇-Eureka基础知识
通过前三篇文章学习,我们搭建好了两个微服务工程.即:order80和payment8001这两个服务.有了这两个基础的框架之后,我们将要开始往里面添加东西了.还记得分布式架构的几个维度吗?我们要通过一 ...
- c++简单string实现
string.h #pragma once class string { public: string(const char* str = nullptr); string(const string& ...