用hbase做数据库,但因为hbase没有类sql查询方式,所以操作和计算数据很不方便,于是整合hive,让hive支撑在hbase数据库层面 的 hql查询.hive也即 做数据仓库



1. 基于Hadoop+Hive架构对海量数据进行查询:http://blog.csdn.net/kunshan_shenbin/article/details/7105319

2. HBase 0.90.5 + Hadoop 1.0.0 集成:http://blog.csdn.net/kunshan_shenbin/article/details/7209990

本文的目的是要讲述怎样让Hbase和Hive能互相訪问,让Hadoop/Hbase/Hive协同工作。合为一体。

本文測试步骤主要參考自:http://running.iteye.com/blog/898399

当然。这边博文也是依照官网的步骤来的:http://wiki.apache.org/hadoop/Hive/HBaseIntegration

1. 拷贝hbase-0.90.5.jar和zookeeper-3.3.2.jar到hive/lib下。

注意:怎样hive/lib下已经存在这两个文件的其它版本号(比如zookeeper-3.3.1.jar),建议删除后使用hbase下的相关版本号。

2. 改动hive/conf下hive-site.xml文件。在底部加入例如以下内容:

[html] view plaincopy

<!--  

<property>  

  <name>hive.exec.scratchdir</name>   

  <value>/usr/local/hive/tmp</value>   



</property>   

-->  

 

<property>   

  <name>hive.querylog.location</name>   

  <value>/usr/local/hive/logs</value>   

</property>   

 

<property>  

  <name>hive.aux.jars.path</name>   

  <value>file:///usr/local/hive/lib/hive-hbase-handler-0.8.0.jar,file:///usr/local/hive/lib/hbase-0.90.5.jar,file:///usr/local/hive/lib/zookeeper-3.3.2.jar</value>  



</property> 

注意:假设hive-site.xml不存在则自行创建,或者把hive-default.xml.template文件改名后使用。

详细请參见:http://blog.csdn.net/kunshan_shenbin/article/details/7210020



3. 拷贝hbase-0.90.5.jar到全部hadoop节点(包含master)的hadoop/lib下。

4. 拷贝hbase/conf下的hbase-site.xml文件到全部hadoop节点(包含master)的hadoop/conf下。

注意。hbase-site.xml文件配置信息參照:http://blog.csdn.net/kunshan_shenbin/article/details/7209990

注意,假设3,4两步跳过的话。执行hive时非常可能出现例如以下错误:

[html] view plaincopy

org.apache.hadoop.hbase.ZooKeeperConnectionException: HBase is able to connect to ZooKeeper but the connection closes immediately.   

This could be a sign that the server has too many connections (30 is the default). Consider inspecting your ZK server logs for that error and   

then make sure you are reusing HBaseConfiguration as often as you can. See HTable's javadoc for more information. at org.apache.hadoop.  

hbase.zookeeper.ZooKeeperWatcher.

參考:http://blog.sina.com.cn/s/blog_410d18710100vlbq.html



如今能够尝试启动Hive了。

单节点启动:

> bin/hive -hiveconf hbase.master=master:60000

集群启动:

> bin/hive -hiveconf hbase.zookeeper.quorum=slave

怎样hive-site.xml文件里没有配置hive.aux.jars.path,则能够依照例如以下方式启动。

> bin/hive --auxpath /usr/local/hive/lib/hive-hbase-handler-0.8.0.jar, /usr/local/hive/lib/hbase-0.90.5.jar, /usr/local/hive/lib/zookeeper-3.3.2.jar -hiveconf hbase.zookeeper.quorum=slave

接下来能够做一些測试了。

1.创建hbase识别的数据库:

[sql] view plaincopy

CREATE TABLE hbase_table_1(key int, value string) 

STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 

WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,cf1:val") 

TBLPROPERTIES ("hbase.table.name" = "xyz"); 

hbase.table.name 定义在hbase的table名称

hbase.columns.mapping 定义在hbase的列族

2.使用sql导入数据

a) 新建hive的数据表

[sql] view plaincopy

<span><span></span></span>hive> CREATE TABLE pokes (foo INT, bar STRING); 

b) 批量插入数据

[sql] view plaincopy

hive> LOAD DATA LOCAL INPATH './examples/files/kv1.txt' OVERWRITE INTO TABLE

pokes; 

c) 使用sql导入hbase_table_1

[sql] view plaincopy

hive> INSERT OVERWRITE TABLE hbase_table_1 SELECT * FROM pokes WHERE foo=86; 

3. 查看数据

[sql] view plaincopy

hive> select * from  hbase_table_1; 

这时能够登录Hbase去查看数据了.

> /usr/local/hbase/bin/hbase shell

hbase(main):001:0> describe 'xyz'  

hbase(main):002:0> scan 'xyz'  

hbase(main):003:0> put 'xyz','100','cf1:val','www.360buy.com'

这时在Hive中能够看到刚才在Hbase中插入的数据了。

hive> select * from hbase_table_1

4. hive訪问已经存在的hbase

使用CREATE EXTERNAL TABLE

[sql] view plaincopy

CREATE EXTERNAL TABLE hbase_table_2(key int, value string) 

STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 

WITH SERDEPROPERTIES ("hbase.columns.mapping" = "cf1:val") 

TBLPROPERTIES("hbase.table.name" = "some_existing_table"); 





多列和多列族(Multiple Columns and Families)

1.创建数据库

Java代码 

CREATE TABLE hbase_table_2(key int, value1 string, value2 int, value3 int)  

STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 

WITH SERDEPROPERTIES ( 

"hbase.columns.mapping" = ":key,a:b,a:c,d:e" 

); 



2.插入数据

Java代码 

INSERT OVERWRITE TABLE hbase_table_2 SELECT foo, bar, foo+1, foo+2  

FROM pokes WHERE foo=98 OR foo=100; 





这个有3个hive的列(value1和value2,value3),2个hbase的列族(a,d)

Hive的2列(value1和value2)相应1个hbase的列族(a。在hbase的列名称b,c)。hive的另外1列(value3)相应列(e)位于列族(d)



3.登录hbase查看结构

Java代码

hbase(main):003:0> describe "hbase_table_2"  

DESCRIPTION                                                             ENABLED                                 

 {NAME => 'hbase_table_2', FAMILIES => [{NAME => 'a', COMPRESSION => 'N true                                    

 ONE', VERSIONS => '3', TTL => '2147483647', BLOCKSIZE => '65536', IN_M                                         

 EMORY => 'false', BLOCKCACHE => 'true'}, {NAME => 'd', COMPRESSION =>                                          

 'NONE', VERSIONS => '3', TTL => '2147483647', BLOCKSIZE => '65536', IN                                         

 _MEMORY => 'false', BLOCKCACHE => 'true'}]}                                                                    

1 row(s) in 1.0630 seconds

4.查看hbase的数据

Java代码

hbase(main):004:0> scan 'hbase_table_2'  

ROW                          COLUMN+CELL                                                                        

 100                         column=a:b, timestamp=1297695262015, value=val_100                                 

 100                         column=a:c, timestamp=1297695262015, value=101                                     

 100                         column=d:e, timestamp=1297695262015, value=102                                     

 98                          column=a:b, timestamp=1297695242675, value=val_98                                  

 98                          column=a:c, timestamp=1297695242675, value=99                                      

 98                          column=d:e, timestamp=1297695242675, value=100                                     

2 row(s) in 0.0380 seconds

5.在hive中查看

Java代码

hive> select * from hbase_table_2;  

OK  

100     val_100 101     102  

98      val_98  99      100  

Time taken: 3.238 seconds 

參考资料:

http://running.iteye.com/blog/898399

http://heipark.iteye.com/blog/1150648

http://www.javabloger.com/article/apache-hadoop-hive-hbase-integration.html

Hadoop Hive与Hbase关系 整合的更多相关文章

  1. Hive与Hbase关系整合

    近期工作用到了Hive与Hbase的关系整合,虽然从网上参考了很多的资料,但是大多数讲的都不是很细,于是决定将这块知识点好好总结一下供大家分享,共同掌握! 本篇文章在具体介绍Hive与Hbase整合之 ...

  2. Hadoop Hive与Hbase整合+thrift

    Hadoop Hive与Hbase整合+thrift 1.  简介 Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句 ...

  3. hive与hbase的整合

    Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行.其优点学习成本低,可以通过类S ...

  4. 将CDH中的hive和hbase相互整合使用

    一..hbase与hive的兼容版本: hive0.90与hbase0.92是兼容的,早期的hive版本与hbase0.89/0.90兼容,不需要自己编译. hive1.x与hbase0.98.x或则 ...

  5. 配置Hadoop,hive,spark,hbase ————待整理

    五一一天在家搭建好了集群,要上班了来不及整理,待下周周末有时间好好整理整理一个完整的搭建hadoop生态圈的集群的系列 若出现license information(license not accep ...

  6. Mysql和Hadoop+Hive有什么关系?

    1.Hive不存储数据,Hive需要分析计算的数据,以及计算结果后的数据实际存储在分布式系统上,如HDFS上. 2.Hive某种程度来说也不进行数据计算,只是个解释器,只是将用户需要对数据处理的逻辑, ...

  7. Hadoop学习之HBase和Hive的区别

    Hive是为简化编写MapReduce程序而生的,使用MapReduce做过数据分析的人都知道,很多分析程序除业务逻辑不同外,程序流程基本一样.在这种情况下,就需要Hive这样的用户编程接口.Hive ...

  8. 大数据工具篇之Hive与HBase整合完整教程

    大数据工具篇之Hive与HBase整合完整教程 一.引言 最近的一次培训,用户特意提到Hadoop环境下HDFS中存储的文件如何才能导入到HBase,关于这部分基于HBase Java API的写入方 ...

  9. hive存储处理器(StorageHandlers)以及hive与hbase整合

    此篇文章基于hive官方英文文档翻译,有些不好理解的地方加入了我个人的理解,官方的英文地址为: 1.https://cwiki.apache.org/confluence/display/Hive/S ...

随机推荐

  1. notepad++ 配置笔记

    0.notepad++简单介绍 Notepad++是一套很有特色的自由软件的纯文字编辑器,有完整的中文化接口及支援多国语言撰写的功能.它的功能比 Windows 中的 Notepad更强大.Notep ...

  2. EasyUI - Messager消息框

    全局设定: JavaScript代码: //设置按钮中的文字,默认是-ok/cancel ,可以任意设置文字,比如现在的-确认/取消 $.messager.defaults = { ok: '确认', ...

  3. EasyUI - Panel 面板控件

    效果: html代码: <div id="p" style="padding: 10px;"> <p>panel content.< ...

  4. Single Image Haze Removal Using Dark Channel Prior翻译

    这段时间在回顾以前做的去雾,顺便就把这篇文章翻译了一下,看看有没有同行交流.由于是用LaTex排版的,所以只能转为图片传上来了.另外,英语水平有限,大部分都是靠词典,所以只能勉强着看了.

  5. 强化一下开源库:Synopse

    http://synopse.info/fossil/wiki/Synopse+OpenSource 有空要研究一下,只有写在这里,才会时时刻刻提醒自己.

  6. DataTable的一些使用技巧

    在做机房的时候经常用到DataTable,发现如果DataTable使用的好的话,不仅能使程序简洁实用,而且能够提高性能,达到事半功倍的效果.现在对我知道的一些技巧做个总结,虽然都是一些简单的,但是发 ...

  7. Swift - 从ALAsset中获取照片的原图并转换成NSData

    ALAsset类代表相册中的每个资源文件,可以通过它获取照片的相关信息,及其对应的原图,全屏图,缩略图等. 当我们想通过一个照片的ALAsset对象,来获取这张照片的原图并将其转换成NSData数据, ...

  8. 解决Java compiler level does not match the version of the installed Java project facet.问题

    其实之前遇到过Java compiler level does not match the version of the installed Java project facet.这个问题,因为当时没 ...

  9. Hive HA使用说明

    hive让大数据飞了起来,不再需要专人写MR.平常我们都可以用基于thrift的任意语言来调用hive. 不过爱恨各半,hive的thrift不稳定也是出了名的.很容易就出问题,让人无计可施.唯一的办 ...

  10. Struts2通过自己定义拦截器实现登录之后跳转到原页面

    这个功能对用户体验来说是非常重要的.实现起来事实上非常easy. 拦截器的代码例如以下: package go.derek.advice; import go.derek.entity.User; i ...