package hbaseCURD;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.util.Bytes; public class test { public static void main(String[] args) throws IOException { TableManager tm = new TableManager();
tm.getConf();
// tm.createTable("testtable","cf1","cf2");
HTable mytable=tm.getTableObj("testtable");
// Put put = new Put(Bytes.toBytes("row1"));
// put.add(Bytes.toBytes("cf1"), Bytes.toBytes("c1"), Bytes.toBytes("cf1ddfddvalue"));
// put.add(Bytes.toBytes("cf2"), Bytes.toBytes("c2"), Bytes.toBytes("cf2v3333alue"));
// mytable.put(put);
//查询
Get get = new Get(Bytes.toBytes("row1"));
Result result = mytable.get(get);
System.out.println("get result:" + Bytes.toString(result.getValue(Bytes.toBytes("cf1"), Bytes.toBytes("c1"))));
//Result[] result = table.get(List<Get>);//查询指定Rowkey的多条记录 } }
package hbaseCURD;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.MasterNotRunningException;
import org.apache.hadoop.hbase.ZooKeeperConnectionException;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.util.Bytes; public class TableManager {
private static Configuration conf; // 设置集群的配置信息
public void getConf() {
conf = HBaseConfiguration.create();
conf.set("hbase.zookeeper.quorum", "master,slave1,slave2");
conf.set("hbase.master", "master:60000");
} // 获取表对象
public HTable getTableObj(String tablename) {
HTable mytable = null;
try {
mytable = new HTable(conf, tablename);
} catch (IOException e) {
e.printStackTrace();
}
return mytable;
} //
public void createTable(String tableName, String... args) throws MasterNotRunningException, ZooKeeperConnectionException {
// args数组保存的是列族
HBaseAdmin admin = new HBaseAdmin(conf);
// 创建表
HTableDescriptor htd = new HTableDescriptor(tableName);
for (String st : args) {
htd.addFamily(new HColumnDescriptor(st));
}
try {
admin.createTable(htd);
} catch (IOException e) {
e.printStackTrace();
} } public void deleteTable(String tableName) {
try {
HBaseAdmin admin = new HBaseAdmin(conf);
// 创建表
HTableDescriptor htd = new HTableDescriptor(tableName);
admin.disableTable(Bytes.toBytes(tableName));
admin.deleteTable(Bytes.toBytes(tableName));
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
public void modifyTable(String tableName,String newcoloumf) {
try {
HBaseAdmin admin = new HBaseAdmin(conf);
// 创建表
HTableDescriptor htd = new HTableDescriptor(tableName);
admin.disableTable(Bytes.toBytes(tableName));
admin.modifyColumn(tableName, new HColumnDescriptor("cf1"));
admin.enableTable(tableName);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
} }

Hbase的访问方式

1、Native Java API:最常规和高效的访问方式;

2、HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用;

3、Thrift Gateway:利用Thrift序列化技术,支持C++,PHP,Python等多种语言,适合其他异构系统在线访问HBase表数据;

4、REST Gateway:支持REST 风格的Http API访问HBase, 解除了语言限制;

5、MapReduce:直接使用MapReduce作业处理Hbase数据;

6、使用Pig/hive处理Hbase数据。

常用Java API的用法:

1、加载配置

[java] view plaincopy在CODE上查看代码片派生到我的代码片

Configuration config = HBaseConfiguration.create();

//可以自定义配置,也可以从自定义配置文件中读取

/*config.set(“hbase.zookeeper.property.clientPort”, “4181”);

config.set(“hbase.zookeeper.quorum”, “hadoop.datanode5.com,hadoop.datanode2.com,hadoop.datanode3.com”);

config.set(“hbase.master”, “hadoop.datanode3.com\:600000”);*/

2、表的创建、表信息修改、表删除

[java] view plaincopy在CODE上查看代码片派生到我的代码片

HBaseAdmin admin = new HBaseAdmin(config);

//创建表

HTableDescriptor htd = new HTableDescriptor(tableName);

htd.addFamily(new HColumnDescriptor(“cf1”));

htd.addFamily(new HColumnDescriptor(“cf2”));

admin.createTable(htd);

//修改表信息

admin.disableTable(tableName);

// modifying existing ColumnFamily

admin.modifyColumn(tableName, new HColumnDescriptor(“cf1”));

admin.enableTable(tableName);

//删除表

admin.disableTable(Bytes.toBytes(tableName));

admin.deleteTable(Bytes.toBytes(tableName));

3、添加记录

[java] view plaincopy在CODE上查看代码片派生到我的代码片

/** 在多次使用时,建议用HTablePool

HTable table = new HTable(config, tableName);

=>

HTablePool pool = new HTablePool(config, 1000);

HTableInterface table = pool.getTable(tableName);*/

HTable table = new HTable(config, tableName);

/**

* 在插入操作时,默认不适用任何缓存

* 可自定义使用缓存,以及缓存大小

* 每个任务最后需要手工调用 flushCommits();

*/

/*table.setAutoFlush(false);

table.setWriteBufferSize(1024);*/

Put put1 = new Put(Bytes.toBytes(rowKey));

if (ts == 0) {

put1.add(Bytes.toBytes(family), Bytes.toBytes(qualifier), Bytes.toBytes(value));

} else {

//自定义版本时,从自定义的版本号,类型为long

put1.add(Bytes.toBytes(family), Bytes.toBytes(qualifier), ts,Bytes.toBytes(value));

}

table.put(put1);

//table.flushCommits();

4、查询,根据Rowkey查询

[java] view plaincopy在CODE上查看代码片派生到我的代码片

Get get1 = new Get(Bytes.toBytes(rowKey));

Result result = table.get(get1);

System.out.println(“get result:” + Bytes.toString(result.getValue(Bytes.toBytes(family), Bytes.toBytes(qualifier))));

Result[] result = table.get(List);//查询指定Rowkey的多条记录

5、查询,指定条件和rowkey区间查询

[java] view plaincopy在CODE上查看代码片派生到我的代码片

Scan scan = new Scan();

//默认缓存大小为1,设置成一个合理的值,可以减少scan过程中next()的时间开销,代价是客户端的内存

scan.setCaching(500);

scan.setCacheBlocks(false);

//根据startRowKey、endRowKey查询

//Scan scan = new Scan(Bytes.toBytes(“startRowKey”), Bytes.toBytes(“endRowKey”));

//rowKey之外的过滤条件,在List中可以add;

/**List filters = new ArrayList();

Filter filter = new SingleColumnValueFilter(“familyName”.getBytes(),

“qualifierName”.getBytes(),

CompareOp.EQUAL,

Bytes.toBytes(“value”));

filters.add(filter);

scan.setFilter(new FilterList(filters));*/

ResultScanner scanner = table.getScanner(scan);

System.out.println(“scan result list:”);

for (Result result : scanner) {

System.out.println(Bytes.toString(result.getRow()));

System.out.println(Bytes.toString(result.getValue(Bytes.toBytes(“data”), Bytes.toBytes(“data1”))));

System.out.println(Bytes.toString(result.getValue(Bytes.toBytes(“data”), Bytes.toBytes(“data2”))));

}

scanner.close();

参考:

1、http://www.taobaotest.com/blogs/1605

2、http://abloz.com/hbase/book.html#data_model_operations(官网示例)

版权声明:本文为博主原创文章,未经博主允许不得转载。

hbase java API跟新数据,创建表的更多相关文章

  1. 基于CDH5.x 下面使用eclipse 操作hive 。使用java通过jdbc连接HIVESERVICE 创建表

    基于CDH5.x 下面使用eclipse 操作hive .使用java通过jdbc连接HIVESERVICE 创建表 import java.sql.Connection; import java.s ...

  2. hbase java api样例(版本1.3.1,新API)

    hbase版本:1.3.1 目的:HBase新API的使用方法. 尝试并验证了如下几种java api的使用方法. 1.创建表 2.创建表(预分区) 3.单条插入 4.批量插入 5.批量插入(客户端缓 ...

  3. 大数据学习系列之三 ----- HBase Java Api 图文详解

    版权声明: 作者:虚无境 博客园出处:http://www.cnblogs.com/xuwujing CSDN出处:http://blog.csdn.net/qazwsxpcm 个人博客出处:http ...

  4. Hbase Java API详解

    HBase是Hadoop的数据库,能够对大数据提供随机.实时读写访问.他是开源的,分布式的,多版本的,面向列的,存储模型. 在讲解的时候我首先给大家讲解一下HBase的整体结构,如下图: HBase ...

  5. HBase 学习之路(六)——HBase Java API 的基本使用

    一.简述 截至到目前(2019.04),HBase 有两个主要的版本,分别是1.x 和 2.x ,两个版本的Java API有所不同,1.x 中某些方法在2.x中被标识为@deprecated过时.所 ...

  6. HBase 系列(六)——HBase Java API 的基本使用

    一.简述 截至到目前 (2019.04),HBase 有两个主要的版本,分别是 1.x 和 2.x ,两个版本的 Java API 有所不同,1.x 中某些方法在 2.x 中被标识为 @depreca ...

  7. HBase Java API使用(一)

    前言 1. 创建表:(由master完成) 首先需要获取master地址(master启动时会将地址告诉zookeeper)因而客户端首先会访问zookeeper获取master的地址 client和 ...

  8. 【Hbase学习之三】Hbase Java API

    环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk8 hadoop-2.6.5 hbase-0.98.12.1-h ...

  9. Hbase(六) hbase Java API

    一. 几个主要 Hbase API 类和数据模型之间的对应关系: 1. HBaseAdmin关系: org.apache.hadoop.hbase.client.HBaseAdmin作用:提供了一个接 ...

随机推荐

  1. Ubuntu 16.04更换源

    Ubuntu 16.04下载软件速度有点慢,因为默认的是从国外下载软件,那就更换到国内比较好的快速更新源(就是这些软件所在的服务器),一般直接百度Ubuntu更新源就能出来一大堆,这时候最好是找和自己 ...

  2. 【五】MongoDB管理之生产环境说明

    下面详细说明影响mongodb的系统配置,尤其在生产环境上. 1.生产环境推荐的平台 Amazon Linux Debian 7.1 Red Hat / CentOS 6.2+ SLES 11+ Ub ...

  3. 加深Java基础,做了20道题选择题!简答题没做

    2015-03-16 17:13 269人阅读 评论(1) 收藏 举报  分类: 笔试(1)  版权声明:本文为博主原创文章,未经博主允许不得转载.    1,下列说法正确的是( A ) A )Jav ...

  4. 处理 javax.el.ELException: Failed to parse the expression 报错

    在JSP的表达式语言中,使用了  <h3>是否新Session:${pageContext.session.new}</h3>  输出Session是否是新的,此时遇到了  j ...

  5. Provider org.apache.xerces.jaxp.DocumentBuilderFactoryImpl not found 问题排查

    自定义的classLoader启动spring容器,遇到 Provider org.apache.xerces.jaxp.DocumentBuilderFactoryImpl not subtype ...

  6. DIV+CSS专题:第一天 XHTML CSS基础知识

    欢迎大家学习<十天学会web标准>,也就是我们常说的DIV+CSS.不过这里的DIV+CSS是一种错误的叫法,建议大家还是称之为web标准.   学习本系列教程需有一定html和css基础 ...

  7. spring.jar的下载地址

    http://repo.spring.io/release/org/springframework/spring/

  8. spring boot: scope (一般注入说明(一) @Autowired注解)

    实例一: DiConfig 文件: package di; import org.springframework.context.annotation.ComponentScan; import or ...

  9. Sqlte 知识点记录

    1.表存在 select count(*) from sqlite_master where type='table' and name='MyTable'; sql),path ))"; ...

  10. HashOperations

    存储格式:Key=>(Map<HK,HV>) 1.put(H key, HK hashKey, HV value) putAll(H key, java.util.Map<? ...