一、

1.掌握Hbase在Hadoop集群体系结构中发挥的作用和使过程。

2.掌握安装和配置HBase基本方法。

3.掌握HBase shell的常用命令。

4.使用HBase shell命令进行表的创建,增加删除修改操作。

5.使用Java API进行表的创建,增加删除修改操作。

二、

1.完成Zookeeper和HBase的搭建。

2.使用HBase shell命令进行表的创建,增加删除修改操作。

3.使用Java API进行表的创建,增加删除修改操作。

一:

  1. 掌握Hbase在Hadoop集群体系结构中发挥的作用和使过程。
  1. 掌握安装和配置HBase基本方法。

Hbase的安装与配置已在实验一上传

  1. 掌握HBase shell的常用命令。

4.使用HBase shell命令进行表的创建,增加删除修改操作。

1. HBase Shell基本操作

(1)使用HBase Shell创建表、查看表结构、增加列族、删除列族;

(2)使用HBase Shell添加数据、查看数据、查看表中的记录总数;

(3)使用HBase Shell删除数据、清空表里的内容、删除表;

(4)使用HBase Shell对表的列族可配置参数进行调整,使其可以查看多个版本的数据。

status 查询服务器状态

version 查看版本

(1)使用HBase Shell创建表、查看表结构、增加列族、删除列族;

创建表

create ‘scores’,’grade’,’course’

查看表结构

desc ‘scores’

增加列族

disable ‘scores’

Alter ‘scores’,{NAME=>’school’}

删除列族(disable后alter)

disable ‘scores’

alter 'scores',{NAME=>'school',METHOD=>'delete'}

(2)使用HBase Shell添加数据、查看数据、查看表中的记录总数;

1、添加数据

put ‘表名’,’行键’,’列族:列限定符’,’值’

put 'scores','Tom','grade:','5'

put 'scores','Tom','course:math','97'

put 'scores','Tom','course:art','87'

put 'scores','Tom','course:english','80'

put 'scores','Jim','grade:','4'

put 'scores','Jim','course:chinese','89'

put 'scores','Jim','course:english','80'

2、查看数据

scan ‘scores’

3、查看表的记录总数

count ‘scores’

(3)使用HBase Shell删除数据、清空表里的内容、删除表;

1、删除数据

  1. 删除一个单元格

delete 'scores','Jim','grade:'

delete 'scores','Jim','course:chinese'

或:

deleteall 'scores','Tom','course:english'

b.删除一行

deleteall 'scores','Tom'

2、清空表内容

表的内容清空,但表的结构还在

truncate 'scores'

scan 'scores' 内容清空

desc 'scores' 结构存在

3、删除表

删除一个表(先禁用表,再删除表)

disable 'scores'

drop 'scores'

  1. 使用Java API进行表的创建,增加删除修改操作。

package putfile;

import java.io.IOException;

import java.util.ArrayList;

import java.util.List;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.hbase.Cell;

import org.apache.hadoop.hbase.CellUtil;

import org.apache.hadoop.hbase.HBaseConfiguration;

import org.apache.hadoop.hbase.HColumnDescriptor;

import org.apache.hadoop.hbase.HTableDescriptor;

import org.apache.hadoop.hbase.KeyValue;

import org.apache.hadoop.hbase.MasterNotRunningException;

import org.apache.hadoop.hbase.TableName;

import org.apache.hadoop.hbase.ZooKeeperConnectionException;

import org.apache.hadoop.hbase.client.Delete;

import org.apache.hadoop.hbase.client.Get;

import org.apache.hadoop.hbase.client.HBaseAdmin;

import org.apache.hadoop.hbase.client.HTable;

import org.apache.hadoop.hbase.client.Put;

import org.apache.hadoop.hbase.client.Result;

import org.apache.hadoop.hbase.client.ResultScanner;

import org.apache.hadoop.hbase.client.Scan;

import org.apache.hadoop.hbase.protobuf.generated.ClientProtos.Column;

public class Hbase {

static Configuration conf = null;

static{

conf = HBaseConfiguration.create();

conf.set("hbase.rootdir", "hdfs://10.49.23.127:9000/hbase");

conf.set("hbase.master", "hdfs://10.49.23.127:60000");

conf.set("hbase.zookeeper.property.clientPort", "2181");

conf.set("hbase.zookeeper.quorum", "master,slave1,slave2");

}

//实现了list功能

public static List<String> getAllTables() throws MasterNotRunningException, ZooKeeperConnectionException, IOException{

List<String> list = null;

//HBaseAdmin可以创建表、删除表、查看表

HBaseAdmin admin = new HBaseAdmin(conf);

if(admin != null){

//HTableDescriptor表的相关信息

HTableDescriptor[] tables = admin.listTables();

for(HTableDescriptor table : tables){

System.out.println(table.getNameAsString());

list = new ArrayList<String>();

list.add(table.getNameAsString());

}

}

admin.close();

return list;

}

public static int createTabble(String tableName, String[] family) throws MasterNotRunningException, ZooKeeperConnectionException, IOException{

HBaseAdmin admin = new HBaseAdmin(conf);

HTableDescriptor table = new HTableDescriptor(TableName.valueOf(tableName));

// HTableDescriptor table = new HTableDescriptor(tableName);

//HColumnDescriptor列的相关信息

for(String str : family){

HColumnDescriptor cloumn = new HColumnDescriptor(str);

cloumn.setMaxVersions(3);

table.addFamily(cloumn);

}

if(admin.tableExists(tableName)){

System.out.println(tableName + "已经存在");

return -1;

}

admin.createTable(table);

admin.close();

return 1;

}

public static void deleteTable(String tableName) throws MasterNotRunningException, ZooKeeperConnectionException, IOException{

HBaseAdmin admin = new HBaseAdmin(conf);

admin.disableTable(tableName);

admin.deleteTable(tableName);

System.out.println(tableName + "成功删除");

admin.close();

}

public static void insert(String tableName, String rowkey, String family, String column, String cell) throws IOException{

Put put = new Put(rowkey.getBytes());

//HTable负责表的get put delete操作

HTable table = new HTable(conf, tableName);

put.add(family.getBytes(), column.getBytes(), cell.getBytes());

table.put(put);

}

public static Result queryByRow(String tableName, String rowkey) throws IOException{

Get get = new Get(rowkey.getBytes());

HTable table = new HTable(conf, tableName);

return table.get(get);

}

public static Result queryByColumn(String tableName, String rowkey, String family, String column) throws IOException{

Get get = new Get(rowkey.getBytes());

HTable table = new HTable(conf, tableName);

get.addColumn(family.getBytes(), column.getBytes());

return table.get(get);

}

public static Result queryByRowByVersions(String tableName, String rowkey) throws IOException{

Get get = new Get(rowkey.getBytes());

get.setMaxVersions(3);

HTable table = new HTable(conf, tableName);

return table.get(get);

}

public static ResultScanner queryByScan(String tableName) throws IOException{

Scan scan = new Scan();

// scan.setStartRow(startRow);

// scan.setStopRow(stopRow);

// scan.addColumn(family, qualifier);

HTable table = new HTable(conf, tableName);

return table.getScanner(scan);

}

public static void deleteByColumn(String tableName, String rowkey, String family, String column) throws IOException{

Delete  delete = new Delete(rowkey.getBytes());

HTable table = new HTable(conf, tableName);

delete.deleteColumn(family.getBytes(), column.getBytes());

table.delete(delete);

System.out.println("成功删除");

}

public static void deleteByRow(String tableName, String rowkey) throws IOException{

Delete  delete = new Delete(rowkey.getBytes());

HTable table = new HTable(conf, tableName);

table.delete(delete);

System.out.println("成功删除");

}

public static void main(String[] args) throws MasterNotRunningException, ZooKeeperConnectionException, IOException {

getAllTables();

//1.创建book表

// createTabble("book", new String[]{"author", "info"});

// getAllTables();

//2.删除book表

// deleteTable("book");

// getAllTables();

//3.创建book表

// createTabble("book", new String[]{"author", "info"});

// getAllTables();

//4.book表插入数据

// insert("book", "rw001", "author", "name", "zhangsan");

// insert("book", "rw001", "author", "age", "65");

// insert("book", "rw001", "info", "name", "database");

// insert("book", "rw001", "info", "price", "35.6");

//5.按行查询数据(旧方法)

// Result result = queryByRow("book", "rw001");

// List<KeyValue> values = result.list();

// System.out.println("COLUMN\t\t\tCELL ");

// for(KeyValue value : values){

// System.out.print(new String(value.getFamily()) + ":");

// System.out.print(new String(value.getQualifier()) + "\t\t");

// System.out.print("value = " + new String(value.getValue()) + ",");

// System.out.println("timestamp = " + value.getTimestamp());

// }

//5.按行查询数据(新方法)

// Result result = queryByRow("book", "rw001");

// Cell[] cells = result.rawCells();

// System.out.println("COLUMN\t\t\tCELL ");

// for(Cell cell : cells){

// System.out.print(new String(CellUtil.cloneFamily(cell)) + ":");

// System.out.print(new String(CellUtil.cloneQualifier(cell)) + "\t\t");

// System.out.print("value = " + new String(CellUtil.cloneValue(cell)) + ",");

// System.out.println("timestamp = " + cell.getTimestamp());

// }

//6.按列查询数据(新方法)

// Result result = queryByColumn("book", "rw001", "author", "name");

// Cell[] cells = result.rawCells();

// System.out.println("COLUMN\t\t\tCELL ");

// for(Cell cell : cells){

// System.out.print(new String(CellUtil.cloneFamily(cell)) + ":");

// System.out.print(new String(CellUtil.cloneQualifier(cell)) + "\t\t");

// System.out.print("value = " + new String(CellUtil.cloneValue(cell)) + ",");

// System.out.println("timestamp = " + cell.getTimestamp());

// }

//7.scan

// ResultScanner scanner = queryByScan("book");

// System.out.println("COLUMN\t\t\tCELL ");

// for(Result result : scanner){

// Cell[] cells = result.rawCells();

//

// for(Cell cell : cells){

// System.out.print(new String(CellUtil.cloneFamily(cell)) + ":");

// System.out.print(new String(CellUtil.cloneQualifier(cell)) + "\t\t");

// System.out.print("value = " + new String(CellUtil.cloneValue(cell)) + ",");

// System.out.println("timestamp = " + cell.getTimestamp());

// }

// }

//8.删除某一列

// deleteByColumn("book", "rw001", "author", "name");

//9.删除某一行数据

// deleteByRow("book", "rw001");

//10. 按行查询多版本数据(新方法)

// Result result = queryByRowByVersions("book", "rw001");

// Cell[] cells = result.rawCells();

// System.out.println("COLUMN\t\t\tCELL ");

// for(Cell cell : cells){

// System.out.print(new String(CellUtil.cloneFamily(cell)) + ":");

// System.out.print(new String(CellUtil.cloneQualifier(cell)) + "\t\t");

// System.out.print("value = " + new String(CellUtil.cloneValue(cell)) + ",");

// System.out.println("timestamp = " + cell.getTimestamp());

// }

}

}

HBase环境搭建、shell操作及Java API编程的更多相关文章

  1. HDFS shell操作及HDFS Java API编程

    HDFS shell操作及HDFS Java API编程 1.熟悉Hadoop文件结构. 2.进行HDFS shell操作. 3.掌握通过Hadoop Java API对HDFS操作. 4.了解Had ...

  2. elasticsearch 5.0 获取 TransportClient 操作客户端java API

    本文转载自:http://blog.csdn.net/likui1314159/article/details/53233881 elasticsearch 5.0 获取 TransportClien ...

  3. 使用JAVA API编程实现简易Habse操作

    使用JAVA API编程实现下面内容: 1.创建<王者荣耀>游戏玩家信息表gamer,包含列族personalInfo(个人信息).recordInfo(战绩信息).assetsInfo( ...

  4. 利用SparkLauncher 类以JAVA API 编程的方式提交Spark job

    一.环境说明和使用软件的版本说明: hadoop-version:hadoop-2.9.0.tar.gz spark-version:spark-2.2.0-bin-hadoop2.7.tgz jav ...

  5. 大数据学习(16)—— HBase环境搭建和基本操作

    部署规划 HBase全称叫Hadoop Database,它的数据存储在HDFS上.我们的实验环境依然基于上个主题Hive的配置,参考大数据学习(11)-- Hive元数据服务模式搭建. 在此基础上, ...

  6. HBase学习(二) 基本命令 Java api

    一.Hbase shell 1.Region信息观察 创建表指定命名空间 在创建表的时候可以选择创建到bigdata17这个namespace中,如何实现呢? 使用这种格式即可:'命名空间名称:表名' ...

  7. 《OD大数据实战》HBase环境搭建

    一.环境搭建 1. 下载 hbase-0.98.6-cdh5.3.6.tar.gz 2. 解压 tar -zxvf hbase-0.98.6-cdh5.3.6.tar.gz -C /opt/modul ...

  8. 大数据学习系列之二 ----- HBase环境搭建(单机)

    引言 在上一篇中搭建了Hadoop的单机环境,这一篇则搭建HBase的单机环境 环境准备 1,服务器选择 阿里云服务器:入门型(按量付费) 操作系统:linux CentOS 6.8 Cpu:1核 内 ...

  9. Hadoop + ZK + HBase 环境搭建

    Hadoop 环境搭建 参考资料: http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/ClusterSetu ...

随机推荐

  1. jenkins+ant+jmeter自动化性能测试平台

    jenkins+ant+jmeter自动化性能测试平台 Jmeter是性能测试的工具,java编写.开源,小巧方便,可以图形界面运行也可以在命令行下运行.网上已经有人使用ant来运行,http://w ...

  2. codeforces 15C. Industrial Nim

    题目链接:http://codeforces.com/problemset/problem/15/C $NIM$游戏是次要的,直接异或石头堆就可以了,问题在于给出的石头堆的数量极多. 考虑利用异或的性 ...

  3. python函数的动态传参.作用域与命名空间

    一.动态传参1.*表示动态传参. 可以接受所有的位置参数传参的时候自动的把实参打包成元组 交给形参 def chi(*food): print(food) chi() # 动态传参可以不传参数 chi ...

  4. HAProxy用法详解

    一.HAProxy简介 (1)HAProxy 是一款提供高可用性.负载均衡以及基于TCP(第四层)和HTTP(第七层)应用的代理软件,支持虚拟主机,它是免费.快速并且可靠的一种解决方案. HAProx ...

  5. django模型表单ModelForm

    如果你正在构建一个数据库驱动的应用,那么你可能会有与Django的模型紧密映射的表单.比如,你有个BlogComment模型,并且你还想创建一个表单让大家提交评论到这个模型中.在这种情况下,写一个fo ...

  6. 关于table动态添加数据 单元格合并 数组合并

    var newArr = [ {"BranchID":1,"BranchName":"城二","BranchFullName&qu ...

  7. angular7 + d3 显示svg

    汇总一些之前没有注意到的问题 总体思路: app只是显示svg为主,接收后端推送的数据改变,显示变化后的svg. 因此,只用d3的数据绑定更新组件里<svg></svg>节点. ...

  8. feature map 大小以及反卷积的理解

    (1)边长的计算公式是:  output_h =(originalSize_h+padding*2-kernelSize_h)/stride +1 输入图片大小为200×200,依次经过一层卷积(ke ...

  9. springboot中spring.profiles.include

    springboot中spring.profiles.include的妙用. 我们有这样的一个springboot项目.项目分为开发.测试.生产三个不同阶段(环境),每个阶段都会有db.ftp.red ...

  10. every day a practice —— morning(3)

    "WeChat does not store any chat histories. They are stored only on users' phones, computers or ...