为了方便以后查看,总结了一些常用的java操作hbase的代码:

package com.mcq;

import static org.hamcrest.CoreMatchers.describedAs;
import static org.hamcrest.CoreMatchers.nullValue; import java.io.IOException;
import java.io.PushbackInputStream; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellScannable;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Delete;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.util.Bytes; public class TestHbase {
private static Admin admin = null;
private static Connection connection = null;
private static Configuration conf = null;
static {
// HBase配置文件
conf = HBaseConfiguration.create();
conf.set("hbase.zookeeper.quorum", "192.168.1.103");
// 获取连接对象
try {
connection = ConnectionFactory.createConnection(conf);
// 获取HBase管理员对象
admin = connection.getAdmin();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
} private static void close(Connection conn, Admin admin) throws IOException {
if (conn != null) {
conn.close();
}
if (admin != null) {
admin.close();
}
} // 判断表是否存在
public static boolean tableExist(String tableName) throws IOException {
boolean tableExists = admin.tableExists(TableName.valueOf(tableName));
return tableExists;
} // 创建表
public static void createTable(String tableName, String... cfs) throws IOException {
if (tableExist(tableName)) {
System.out.println("表已存在");
return;
}
// cfs是列族,官方建议一个表一个,但可以有多个
// 创建表描述器
HTableDescriptor hTableDescriptor = new HTableDescriptor(TableName.valueOf(tableName));
for (String cf : cfs) {
// 创建列描述器
HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(cf);
// hColumnDescriptor.setMaxVersions(3);//设置版本数
hTableDescriptor.addFamily(hColumnDescriptor);
}
// 创建表操作
admin.createTable(hTableDescriptor);
} // 删除表
public static void deleteTable(String tableName) throws IOException {
if (!tableExist(tableName)) {
System.out.println("表不存在");
return;
}
// 使表不可用(下线)
admin.disableTable(TableName.valueOf(tableName));
// 执行删除操作
admin.deleteTable(TableName.valueOf(tableName));
System.out.println("表已删除");
} // 增、改
public static void putData(String tableName, String rowKey, String cf, String cn, String value) throws IOException {
// 获取表对象
// HTable table=new HTable(conf,TableName.valueOf(tableName)); 已过时
Table table = connection.getTable(TableName.valueOf(tableName));
// 创建put对象
Put put = new Put(Bytes.toBytes(rowKey));
// 添加数据
put.addColumn(Bytes.toBytes(cf), Bytes.toBytes(cn), Bytes.toBytes(value));
// 执行添加操作
table.put(put);
} // 删
public static void delete(String tableName, String rowKey, String cf, String cn) throws IOException {
// 获取table对象
Table table = connection.getTable(TableName.valueOf(tableName));
// 创建delete对象
Delete delete = new Delete(Bytes.toBytes(rowKey));// 删除整个列族
delete.addColumns(Bytes.toBytes(cf), Bytes.toBytes(cn));// 删除所有版本
// delete.addColumn(Bytes.toBytes(cf), Bytes.toBytes(cn));不推荐,只删除最新的版本
// 执行删除操作
table.delete(delete);
table.close();
} // 查——全表扫描,只能获取最新版本
public static void scanTable(String tableName) throws IOException {
// 获取table对象
Table table = connection.getTable(TableName.valueOf(tableName));
// 构建扫描器
Scan scan = new Scan();
ResultScanner resultScanner = table.getScanner(scan); // 遍历数据并打印
for (Result result : resultScanner) { // rowkey
Cell[] cells = result.rawCells();
for (Cell cell : cells) { // cell
System.out.println("RK:" + Bytes.toString(CellUtil.cloneRow(cell)) + ",CF:"
+ Bytes.toString(CellUtil.cloneFamily(cell)) + ",CN:"
+ Bytes.toString(CellUtil.cloneQualifier(cell)) + ",VALUE:"
+ Bytes.toString(CellUtil.cloneValue(cell)));
}
}
table.close();
} // 查——获取指定列族
public static void getData(String tableName, String rowKey, String cf, String cn) throws IOException {
Table table = connection.getTable(TableName.valueOf(tableName));
Get get = new Get(Bytes.toBytes(rowKey));
get.addColumn(Bytes.toBytes(cf), Bytes.toBytes(cn));
// get.addFamily(cf);
// get.setMaxVersions();//不传参默认是表结构内的maxversions
get.setMaxVersions(2);
Result result = table.get(get);
Cell[] cells = result.rawCells();
for (Cell cell : cells) { // cell
System.out.println("RK:" + Bytes.toString(CellUtil.cloneRow(cell)) + ",CF:"
+ Bytes.toString(CellUtil.cloneFamily(cell)) + ",CN:"
+ Bytes.toString(CellUtil.cloneQualifier(cell)) + ",VALUE:"
+ Bytes.toString(CellUtil.cloneValue(cell)));
}
} public static void main(String[] args) throws IOException {
// 判断表是否存在
// System.out.println(tableExist("student"));
// System.out.println(tableExist("staff")); // 创建表
// createTable("staff", "info");
// System.out.println(tableExist("staff")); // 删除表
// deleteTable("staff"); // 增、改
// putData("student", "1001", "info", "name", "mcq"); // 删
// delete("student", "1001", "info", "name"); // 查——全表扫描
// scanTable("student"); //查——获取指定列族
getData("student", "1001","info","name"); // 关闭资源
close(connection, admin);
}
}

HBase常用的JAVA API操作的更多相关文章

  1. HDFS 05 - HDFS 常用的 Java API 操作

    目录 0 - 配置 Hadoop 环境(Windows系统) 1 - 导入 Maven 依赖 2 - 常用类介绍 3 - 常见 API 操作 3.1 获取文件系统(重要) 3.2 创建目录.写入文件 ...

  2. HBase学习笔记——Java API操作

    1.1.  配置 HBaseConfiguration 包:org.apache.hadoop.hbase.HBaseConfiguration 作用:通过此类可以对HBase进行配置 用法实例: C ...

  3. hadoop2-HBase的Java API操作

    Hbase提供了丰富的Java API,以及线程池操作,下面我用线程池来展示一下使用Java API操作Hbase. 项目结构如下: 我使用的Hbase的版本是 hbase-0.98.9-hadoop ...

  4. 已看1.熟练的使用Java语言进行面向对象程序设计,有良好的编程习惯,熟悉常用的Java API,包括集合框架、多线程(并发编程)、I/O(NIO)、Socket、JDBC、XML、反射等。[泛型]\

    1.熟练的使用Java语言进行面向对象程序设计,有良好的编程习惯,熟悉常用的Java API,包括集合框架.多线程(并发编程).I/O(NIO).Socket.JDBC.XML.反射等.[泛型]\1* ...

  5. java api操作

    java api操作 导入开发包 将hbase安装包中lib下包导入java项目   创建表   Configuration conf = HBaseConfiguration.create(); c ...

  6. hive-通过Java API操作

    通过Java API操作hive,算是测试hive第三种对外接口 测试hive 服务启动 package org.admln.hive; import java.sql.SQLException; i ...

  7. 使用Java API操作HDFS文件系统

    使用Junit封装HFDS import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org ...

  8. Kafka系列三 java API操作

    使用java API操作kafka 1.pom.xml <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xs ...

  9. Hadoop之HDFS(三)HDFS的JAVA API操作

    HDFS的JAVA API操作 HDFS 在生产应用中主要是客户端的开发,其核心步骤是从 HDFS 提供的 api中构造一个 HDFS 的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS ...

随机推荐

  1. ISODATA聚类算法的matlab程序

    ISODATA聚类算法的matlab程序 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 参考:Kmeans及ISODATA算法的matlab实现 算法 ...

  2. headers

    headers: # Windows 10 IE 11.0 headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0 ...

  3. Python进阶-XVIV 类的内置方法:__str__ 、__repr__、析构函数(__del__)、双下的call,eq,new,hash 以及item相关的三个方法

    类的内置方法 它与内置函数有紧密的联系,有的内置函数就是调用的内置方法. 在顶级父类obj中有: 两个双下方法 obj.__str__ str(obj) obj.__repr__ repr(obj) ...

  4. 【LOJ2838】「JOISC 2018 Day 3」比太郎的聚会(设阈值预处理/分块)

    点此看题面 大致题意: 给你一张\(DAG\),多组询问,每次问你在起点不为某些点的前提下,到达给定终点的最大距离是多少. 设阈值 由于限制点数总和与\(n\)同阶,因此容易想到去设阈值. 对于限制点 ...

  5. 洛谷P3723 [AH2017/HNOI2017]礼物

    吴迪说他化学会考上十分钟就想出来了,太神了%%%不过我也十分钟 但是调了一个多小时啊大草 懒得人话翻译了,自己康吧: 我的室友(真的是室友吗?)最近喜欢上了一个可爱的小女生.马上就要到她的生日了,他决 ...

  6. Programming | 获取图像频域并分解为高低频

    1. DCT变换 参考:https://stackoverflow.com/questions/22322427/decomposing-an-image-into-two-frequency-com ...

  7. centos配置ADSL拨号 配置阿里云的yum源

    如果系统yum源有问题可以更改yum源配置阿里云的yum源1)下载repo文件 wget http://mirrors.aliyun.com/repo/Centos-7.repo(没有 wget命令可 ...

  8. 洛谷 P1840 【Color the Axis_NOI导刊2011提高(05)】 题解

    看了一下题解,显然在做无用功啊,而且麻烦了许多,但是这道题真心不难,显然是一个区间修改的题目,然后查询的题目 我的线段树只需要记录一个量:区间和 看了一下其他题解的pushdown函数,发现真心写的很 ...

  9. 网络流 之 dinic 算法

    网络流指的是:网络流(network-flows)是一种类比水流的解决问题方法.(类似于水管群,有一个源点(水无限多),和一个汇点,最大流就代表这个点水管群(边集)每秒最大能送道汇点的水量) 这个怎么 ...

  10. Flutter基础系列之混合开发(二)

    1.混合开发的场景 1.1作为独立页面加入 这是以页面级作为独立的模块加入,而不是页面的某个元素. 原生页面可以打开Flutter页面 Flutter页面可以打开原生页面 1.2作为页面的一部分嵌入 ...