29-hadoop-使用phtonenix工具&分页&数据导入
因为rowkey一般有业务逻辑, 所以不可以直接使用rowkey进行分页, startkey, endkey
想要使用SQL语句对Hbase进行查询,需要使用Apache的开源框架Phoenix。
安装
1, 下载phonenix
http://mirrors.cnnic.cn/apache/phoenix/
注意下载版本对应的phonenix
2, 解压
解压后, 将 phoenix-core-4.5.2-HBase-1.1.jar 拷贝至hbae各个节点的lib目录下
3, 重新启动hbae集群, 加载jar包
4, 启动,
到加压目录下执行命令
bin/sqlline.py 192.168.208.106:
操作
1, 查看所有表信息
!tables
2, 创建表
create table person (
id varchar primary key,
name varchar
);
3, 插入数据
upsert into person values
('', 'vini');
这儿的upsert, 相当于sql中的额 insert 和update 功能
4, 删除数据
delete from person
where
id = '';
5, 查询所有
select *
from person;
使用phonenix分页
hbase中, rowkey并非规则排布的, 并且可能包含业务逻辑, 所以分页不能像关系型数据库一样进行, 但使用phonenix可以新增列然后进行分页
1, 准备数据;
CREATE TABLE TMP_TRAVEL (ROWKEY VARCHAR PRIMARY KEY,INFO.SP VARCHAR,INFO.EP VARCHAR,INFO.ST VARCHAR,INFO.ET VARCHAR);
数据
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160201112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160202112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160203112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160204112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160205112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160206112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160207112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160208112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160209112343','北京','西三旗','');
UPSERT INTO TMP_TRAVEL VALUES('16357298756_20160210112343','北京','西三旗','');
2, 创建新表, 并增加 pageId
CREATE TABLE TRAVEL (ROWKEY VARCHAR PRIMARY KEY,INFO.SP VARCHAR,INFO.EP VARCHAR,INFO.ST VARCHAR,INFO.ET VARCHAR,PAGEID BIGINT);
3, 创建sequence作为pageId的值
CREATE SEQUENCE SEQ;
4, 将原数据拷贝到新表
UPSERT INTO TRAVEL SELECT ROWKEY,SP,EP,ST,ET,NEXT VALUE FOR SEQ FROM TMP_TRAVEL;
5, 使用 where pageId> ? and limit ? 进行分页
6, java代码
import org.junit.Before;
import org.junit.Test;
import org.springframework.context.ApplicationContext;
import org.springframework.context.support.ClassPathXmlApplicationContext;
import org.springframework.jdbc.core.JdbcTemplate;
import org.springframework.jdbc.core.RowMapper; import java.sql.ResultSet;
import java.sql.SQLException;
import java.util.List; /**
* Created by Administrator on 2016/3/3 0003.
*/
public class HbaseJdbc { private JdbcTemplate jdbcTemplate; public void setJdbcTemplate(JdbcTemplate jdbcTemplate) {
this.jdbcTemplate = jdbcTemplate;
}
@Before
public void before(){
ApplicationContext context = new ClassPathXmlApplicationContext("applicationContext.xml");
jdbcTemplate = (JdbcTemplate) context.getBean("phoenixJdbcTemplate");
}
@Test
public void test(){
List<com.sxt.hbase.Travel> pageRecords = findPageRecords(, , "", "", "");
for (Travel tt:pageRecords){
System.out.println(tt.getROWKEY());
}
} public List<Travel> findPageRecords(int currentPageNum, int pageSize, String ST, String SP, String EP) { //第一个参数为SQL语句,第二参数的RowMapper将每一行结果映射成一个Java对象,方便将其他封装到JavaBean中,第三个参数为占位符值(为可变参数)
List<Travel> travels = jdbcTemplate.query("SELECT * FROM TRAVEL where PAGEID > ? AND ST >= ? AND ROWKEY LIKE ? limit ?",
new RowMapper<Travel>() {
public Travel mapRow(ResultSet rs, int rowNum)
throws SQLException {
Travel travel = new Travel();
travel.setROWKEY(rs.getString("ROWKEY"));
travel.setSP(rs.getString("SP"));
travel.setEP(rs.getString("EP"));
travel.setST(rs.getString("ST"));
travel.setET(rs.getString("ET"));
return travel;
}
},(currentPageNum - )*pageSize,ST,SP+EP+"%",pageSize);
return travels;
}
}
分页工具
public class Travel {
private String ROWKEY;
private String SP;
private String EP;
private String ST;
private String ET;
public String getROWKEY() {
return ROWKEY;
}
public void setROWKEY(String ROWKEY) {
this.ROWKEY = ROWKEY;
}
public String getSP() {
return SP;
}
public void setSP(String SP) {
this.SP = SP;
}
public String getEP() {
return EP;
}
public void setEP(String EP) {
this.EP = EP;
}
public String getST() {
return ST;
}
public void setST(String ST) {
this.ST = ST;
}
public String getET() {
return ET;
}
public void setET(String ET) {
this.ET = ET;
}
}
数据导入
在上面的实例中, 进行数据导入使用的upsert语句, 非常繁琐, phonenix支持文件导入的方式
psql.py 192.168.208.106: ./WEB-STAT.sql ./WEB_STAT.csv
其中, .sql是建表语句, .csv是需要导入的数据
系列来自尚学堂视频
29-hadoop-使用phtonenix工具&分页&数据导入的更多相关文章
- Nebula Exchange 工具 Hive 数据导入的踩坑之旅
摘要:本文由社区用户 xrfinbj 贡献,主要介绍 Exchange 工具从 Hive 数仓导入数据到 Nebula Graph 的流程及相关的注意事项. 1 背景 公司内部有使用图数据库的场景,内 ...
- Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具
Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三 ...
- 从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上
阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并 ...
- 使用sqoop工具从oracle导入数据
sqoop工具是hadoop下连接关系型数据库和Hadoop的桥梁,支持关系型数据库和hive.hdfs,hbase之间数据的相互导入,可以使用全表导入和增量导入 从RDBMS中抽取出的数据可以被Ma ...
- ImportTsv-HBase数据导入工具
一.概述 HBase官方提供了基于Mapreduce的批量数据导入工具:Bulk load和ImportTsv.关于Bulk load大家可以看下我另一篇博文. 通常HBase用户会使用HBase A ...
- sqoop工具从oracle导入数据2
sqoop工具从oracle导入数据 sqoop工具是hadoop下连接关系型数据库和Hadoop的桥梁,支持关系型数据库和hive.hdfs,hbase之间数据的相互导入,可以使用全表导入和增量导入 ...
- Hadoop Hive概念学习系列之HDFS、Hive、MySQL、Sqoop之间的数据导入导出(强烈建议去看)
Hive总结(七)Hive四种数据导入方式 (强烈建议去看) Hive几种数据导出方式 https://www.iteblog.com/archives/955 (强烈建议去看) 把MySQL里的数据 ...
- HBase数据导入导出工具
hbase中自带一些数据导入.导出工具 1. ImportTsv直接导入 1.1 hbase中建表 create 'testtable4','cf1','cf2' 1.2 准备数据文件data.txt ...
- 详解用Navicat工具将Excel中的数据导入Mysql中
第一步:首先需要准备好有数据的excel: 第二步:选择"文件"->"另存为",保存为"CSV(逗号分隔)(*.csv)",将exce ...
随机推荐
- 20170831工作日记--自定义View学习
学习了LayoutInflater的原理分析.视图的绘制流程.视图的状态及重绘等知识,按类型来划分的话,自定义View的实现方式大概可以分为三种,自绘控件.组合控件.以及继承控件.那么下面我们就来依次 ...
- (最短路 弗洛伊德) Til the Cows Come Home -- POJ --2387
#include <iostream> #include <cstdlib> #include <cstring> #include <cstdio> ...
- 20155326 2016-2017-2 《Java程序设计》第九周学习总结
20155326 2016-2017-2 <Java程序设计>第九周学习总结 教材学习内容总结 1.撰写应用程序是利用通信协议对数据库进行指令交换,以进行数据的增删查找. 2.JDBC目的 ...
- Codeforces812B Sagheer, the Hausmeister 2017-06-02 20:47 85人阅读 评论(0) 收藏
B. Sagheer, the Hausmeister time limit per test 1 second memory limit per test 256 megabytes input s ...
- Max Sum—hdu1003(简单DP) 标签: dp 2016-05-05 20:51 92人阅读 评论(0)
Max Sum Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/32768 K (Java/Others) Total Submi ...
- hdu 4941 map的使用
http://acm.hdu.edu.cn/showproblem.php?pid=4941 给定N,M和K,表示在一个N*M的棋盘上有K个棋子,给出K个棋子的位置和值,然后是Q次操作,对应的是: 1 ...
- Python自动化开发 - 进程、线程(一)
本节内容 1.操作系统发展史 2.进程和线程 3.Python threading 模块 一.操系统发展史 手工操作(无操作系统) 1946年第一台计算机诞生--20世纪50年代中期,还未出现操作系统 ...
- Elasticsearch 系列2 --- 安装elasticsearch-head管理工具
elasticsearch-head是elasticsearch的一个管理页面,它的官网是https://github.com/mobz/elasticsearch-head 通过官网我们得知,ES5 ...
- ASP.Net Core 2.2 MVC入门到基本使用系列 (二)
本教程会对基本的.Net Core 进行一个大概的且不会太深入的讲解, 在您看完本系列之后, 能基本甚至熟练的使用.Net Core进行Web开发, 感受到.Net Core的魅力. 本教程知识点大体 ...
- ASP.NET判断是否为手机登录
protected void Page_Load(object sender, EventArgs e) { MobileHandle(); } 页面加载时候判断是否为手机登录 protected v ...