从零自学Hadoop(21):HBase数据模型相关操作下
阅读目录
本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作。
文章是哥(mephisto)写的,SourceLink
序
上一篇,我们讲述了HBase的数据模型相关操作的上部分。
下面我们开始介绍HBase的数据模型相关操作的下部分。
变量
一:定义变量
这样我们就可以使用t这个变量来代替table1了。
t=get_table 'table1'
二:使用
t.put 'row1','cf1:a','v1'
t.get 'row1'
t.scan
三:描述,名称
可以查看表的描述,和变量所代替的表名
t.describe
t.name
数据模型操作
一:介绍
有读get 写 put 扫描 scan 删除 delete 这几种数据模型操作。
二:put
我们先写入几条数据。
put 'table1','row1','cf1:a','a1'
put 'table1','row1','cf3:a','aa1'设置rowkey为row1的列族cf1中列为a的值为a1,列族cf3中列为a的值为aa1
三:get
获取表table1中rowkey为row1的数据
get 'table1','row1'
从图中我可以看到列族cf1的a列,和cf3的a列的数据。
四:更新
put 'table1','row1','cf3:a','aa2'
从图中我们可以看到列族cf3的列a的值变了,而且时间戳也变了。不管value的值变成什么,或者是自己本身,没执行一次put命令,对应的列族的时间戳都会改变。
五:scan
构造数据
put 'table1','row2','cf1:b','b1'
put 'table1','row3','cf3:b','bb1'扫描
scan 'table1'
我们可以看到该表的每条,每列数据都会列出来。
扫描列族cf1的数据
scan 'table1' ,{COLUMN=>'cf1'}
扫描第一行的数据
scan 'table1' ,{LIMIT=>}
扫描起始行为row2的前2条数据
scan 'table1' ,{LIMIT=>,STARTROW=>'row2'}
扫描时间戳在一定范围内的数据
scan 'table1' ,{TIMERANGE=>[,]}
scan 'table1' ,{TIMERANGE=>[,]}
这里比较奇葩,起始的时间41可以查出41的数据,截至时间18查不出18的数据,19才能查出18的数据。所以这点我们应该留点心。
倒序扫描数据
scan 'table1' ,{REVERSED => true}
数据按照rowkey,列族,列族中的列倒序排列
使用row过滤器扫描row1的数据scan 'table1' ,{ROWPREFIXFILTER => 'row1'}
六:delete
删除rowkey 为row1,列族cf1中列为a的数据
delete 'table1','row1','cf1:a'
我们可以试试这个语句
delete 'table1','row1','cf1'发现没有数据被删除,所以删除语句是针对列的,而不是针对列族的。
deleteall删除一行
deleteall 'table1','row1'
--------------------------------------------------------------------
到此,本章节的内容讲述完毕。
系列索引
本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作。
文章是哥(mephisto)写的,SourceLink
从零自学Hadoop(21):HBase数据模型相关操作下的更多相关文章
- 从零自学Hadoop(25):Impala相关操作下
阅读目录 序 导入数据 查询 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一 ...
- 从零自学Hadoop(24):Impala相关操作上
阅读目录 序 数据库相关 表相关 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...
- 从零自学Hadoop(20):HBase数据模型相关操作上
阅读目录 序 介绍 命名空间 表 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...
- 从零自学Hadoop(15):Hive表操作
阅读目录 序 创建表 查看表 修改表 删除表 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceL ...
- 从零自学Hadoop系列索引
本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 从零自学Hadoop(01):认识Hadoop ...
- 从零自学Hadoop(22):HBase协处理器
阅读目录 序 介绍 Observer操作 示例下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,Sour ...
- 从零自学Hadoop(19):HBase介绍及安装
阅读目录 序 介绍 安装 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 上一篇, ...
- 从零自学Hadoop(01):认识Hadoop
本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 阅读目录 序 Hadoop 项目起源 优点 核心 ...
- 从零自学Hadoop(05):Ambari
阅读目录 序 引入背景 Ambari介绍 在线安装 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,Sour ...
随机推荐
- [翻译]AKKA笔记 - 有限状态机 -1
原文地址:http://rerun.me/2016/05/21/akka-notes-finite-state-machines-1/ 我最近有个机会在工作上使用了Akka FSM,是个非常有趣的例子 ...
- Web网站中利用JavaScript中ActiveXObject对象获取硬件信息(显示器数量、分辨率)从而进行单双屏跳转
前言:最近这两天工作上,要实现一个功能,在好友阿聪的帮助下,算是比较好的解决了这个需求. B/S的Web网站,需要实现点击按钮时,根据客户端连接的显示屏(监视器)数量进行,单双屏跳转显示新页面. 由于 ...
- xamarin MasterDetailPage点击Master时卡顿现象
在很多项目中经常会使用到MasterDetailPage的布局方式,而且一般做为主页面来开发,在开发中,发现一个并不算Bug的问题,但是却发生了,以此记录下来,方便大家探讨. 现象是这样的,我开发了一 ...
- Android colors资源文件常用的颜色
<?xml version="1.0" encoding="utf-8"?> <resources> <color name=&q ...
- img.width一直是0的问题--记录(二)
var img=new Image(); img.src="图片路径"; 然后调用 img.width img.height 你会发现值是0: 这是因为页面在加载的时候图片是最后的 ...
- MVC 验证码实现( 简易版)
现在网站上越来越多的验证码,使用场景也是越来越多,登陆.注册.上传.下载...等等地方,都有可能大量使用到验证码,那么制作验证码到底有多简单呢?我们一起来看下最简易版的验证码实现过程- 验证码的基本步 ...
- Memcache缓存系统构建一
在如今这个高效率的社会中,怎样将这个高效率应用到自己的程序中,是一个值得追寻和值得探讨的问题.因为这个memcache能够很好的提高检索速度,提升用户体验,而且重要的是减少数据库的访问.这就大大的提高 ...
- Bloom Filter:海量数据的HashSet
Bloom Filter一般用于数据的去重计算,近似于HashSet的功能:但是不同于Bitmap(用于精确计算),其为一种估算的数据结构,存在误判(false positive)的情况. 1. 基本 ...
- 用python实现最长公共子序列算法(找到所有最长公共子串)
软件安全的一个小实验,正好复习一下LCS的写法. 实现LCS的算法和算法导论上的方式基本一致,都是先建好两个表,一个存储在(i,j)处当前最长公共子序列长度,另一个存储在(i,j)处的回溯方向. 相对 ...
- 我是如何进行Spring MVC文档翻译项目的环境搭建、项目管理及自动化构建工作的
感兴趣的同学可以关注这个翻译项目 . 我的博客原文 和 我的Github 前段时间翻译的Spring MVC官方文档完成了第一稿,相关的文章和仓库可以点击以下链接.这篇文章,主要是总结一下这个翻译项目 ...














