由于实验的须要,这两天就搭了个Hive,简单记录一下:

平台:OS:Ubuntu Kylin 14.04

   JAVA:Java 1.8.0_25

   HADOOP:Hadoop 2.4.0

   HIVE:Hive 0.14.0

  有关Hive的安装这里就不说了,Hive配置好后,直接在安装目录下起动hive(记得先启动Hadoop哈,不然会报错),看着网上的教程简单的试用下;

 create table test(key int, name string) row format delimited fields terminated by ',' lines terminated by '\n';
load data local inpath '/home/liang/test.txt' overwrite into table test;
select * from test;
show tables;
show databases;
desc test;

  看着官网语言手册一顿乱试,感觉好数据库里的命令都好像啊!有关hive都支持什么样的语句及语句怎么写,官网语言手册上写的很详细,好像说从0.14开始支持ACID了,想学习还是啃下英文的手册比较好点,我只是大概看了下。

  有事关机,回来重启,在用户主目录下启动hive,发现关机前create的表不见了,开始怀疑是不是自己的配置没配好呢,重新看了看配置,没错啊。还好在网上看到了hive使用derby作为元数据库找不到所创建表的原因这个帖子,原来是因为我使用的是默认元数据库derby,元数据库是存放在hive的启动目录的,其实如果你细心就会发现,在hive的启动目录下多了一个目录metastore_db和一个日志文件derby.log。当你换个目录启动hive时,derby在当前目录下就找不到以前的元数据库了,只好重建,所以会出现在HDFS上可以看到以前建的文件,但在hive中就是看不见的。所以,要想常用hive还是建议使用MySQL存放元数据吧,而且使用MySQL可以让多用户使用Hive。

  下面进正题,说说使用JDBC连接hiveservice的事:

  打开终端,先看看帮助文档是怎么说的,

 liang@liang-pc:/opt/apache-hive-0.14.-bin$ hive --help
Usage ./hive <parameters> --service serviceName <service parameters>
Service List: beeline cli help hiveburninclient hiveserver2 hiveserver hwi jar lineage metastore metatool orcfiledump rcfilecat schemaTool version
Parameters parsed:
--auxpath : Auxillary jars
--config : Hive configuration directory
--service : Starts specific service/component. cli is default
Parameters used:
HADOOP_HOME or HADOOP_PREFIX : Hadoop install directory
HIVE_OPT : Hive options
For help on a particular service:
./hive --service serviceName --help
Debug help: ./hive --debug --help

  从上面的输出的第二行可以看到hive的用法是:./hive <parameters> --service serviceName <service parameters>

  从上面的输出的第三行可以看到可用的service有很多,我们这次要用的是hiveserver和hiveserver2

  从上面的输出的第12行可以看到,想了解特定service的详细帮助的命令是:./hive --service serviceName --help

  在终端输入依次输入hive --service hiveserver --help和hive --service hiveserver2

 liang@liang-pc:/opt/apache-hive-0.14.-bin$ hive --service hiveserver --help
Starting Hive Thrift Server
usage: hiveserver
-h,--help Print help information
--hiveconf <property=value> Use value for given property
--maxWorkerThreads <arg> maximum number of worker threads,
default:
--minWorkerThreads <arg> minimum number of worker threads,
default:
-p <port> Hive Server port number, default:
-v,--verbose Verbose mode liang@liang-pc:/opt/apache-hive-0.14.-bin$ hive --service hiveserver2 --help
usage: hiveserver2
--deregister <versionNumber> Deregister all instances of given
version from dynamic service discovery
-H,--help Print help information
--hiveconf <property=value> Use value for given property

  从上面的输出只能看到两个service的使用配置和一些默认值,那有关两者的区别和详细说明只好去官网找找HiveServerHiveServer2了。果然说的比较详细,HiveServer2是HiveServer的升级,且在hive 0.15后,HiveServer将会被移除。原话是:


WARNING!

HiveServer cannot handle concurrent requests from more than one client. This is actually a limitation imposed by the Thrift interface that HiveServer exports, and can't be resolved by modifying the HiveServer code.

HiveServer2 is a rewrite of HiveServer that addresses these problems, starting with Hive 0.11.0. Use of HiveServer2 is recommended.

HiveServer is scheduled to be removed from Hive releases starting Hive 0.15. See HIVE-6977. Please switch over to HiveServer2.


  hive服务启动后,就使用JDBC来写程序了,这个和数据库就更想了,直接上代码,

 package hive;

 import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement; public class HiveService { public static void main(String[] args) throws Exception
{
Connection conn = null;
/*
* 使用hiveserver时的配置
* 其中URL的写法是:jdbc:hive://ip:port/db
* ip是hiveserver所在的机器ip,port是hiveserver的服务端口,db是数据库名字,后面还有用户名和密码,
* 这都和其他的数据库的JDBC一样
*/
// Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");
// conn = DriverManager.getConnection("jdbc:hive://localhost:10000/default", "", ""); /*
* 使用hiveserver2时的配置
* 与hiveserver比较,只有要加载的类和URL的写法有一点点的不同,其他的都不用改
*/
Class.forName("org.apache.hive.jdbc.HiveDriver");
conn = DriverManager.getConnection("jdbc:hive2://localhost:10000/default", "", ""); Statement stat = conn.createStatement();
ResultSet rs = stat.executeQuery("select * from test");
// ResultSet rs = stat.executeQuery("show tables");
// ResultSet rs = stat.executeQuery("show databases");
// ResultSet rs = stat.executeQuery("desc test");
while (rs.next())
{
System.out.println(rs.getString(1) + "\t" + rs.getString(2));
}
}
}

  所依赖的jar包有:${HIVE_HOME}/lib/hive-jdbc-0.14.0-standalone.jar和${HADOOP_HOME}/share/hadoop/common/hadoop-common-2.4.0.jar

  当使用hiveserver时,可能是我的hive版本和hadoop版本不对应,会报以下错误,而hiveserver2却不会。

 Exception in thread "main" java.lang.ExceptionInInitializerError
at org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe.initSerdeParams(LazySimpleSerDe.java:318)
......
at hive.HiveService.main(HiveService.java:16)
Caused by: java.lang.RuntimeException: Could not load shims in class org.apache.hadoop.hive.shims.Hadoop23Shims
at org.apache.hadoop.hive.shims.ShimLoader.createShim(ShimLoader.java:138)
......
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hive.shims.Hadoop23Shims
at java.net.URLClassLoader$1.run(URLClassLoader.java:372)

  由于hiveserver2可以正常运行,且hiveserver是将要被移除的,就没查找错误的具体原因,有了解的可给我说下。

  还有一点要注意的是,在我的电脑上测试时,SQL语句后面不要以";"结尾,不然会报错,ResultSet.getString(String columnLabel)会出错。

更详细的有关JDBC的使用请参考:

HiveServer1:https://cwiki.apache.org/confluence/display/Hive/HiveClient

HiveServer2:https://cwiki.apache.org/confluence/display/Hive/HiveServer2%20Clients#HiveServer2Clients-UsingJDBC

hiveservice简介的更多相关文章

  1. ASP.NET Core 1.1 简介

    ASP.NET Core 1.1 于2016年11月16日发布.这个版本包括许多伟大的新功能以及许多错误修复和一般的增强.这个版本包含了多个新的中间件组件.针对Windows的WebListener服 ...

  2. MVVM模式和在WPF中的实现(一)MVVM模式简介

    MVVM模式解析和在WPF中的实现(一) MVVM模式简介 系列目录: MVVM模式解析和在WPF中的实现(一)MVVM模式简介 MVVM模式解析和在WPF中的实现(二)数据绑定 MVVM模式解析和在 ...

  3. Cassandra简介

    在前面的一篇文章<图形数据库Neo4J简介>中,我们介绍了一种非常流行的图形数据库Neo4J的使用方法.而在本文中,我们将对另外一种类型的NoSQL数据库——Cassandra进行简单地介 ...

  4. REST简介

    一说到REST,我想大家的第一反应就是“啊,就是那种前后台通信方式.”但是在要求详细讲述它所提出的各个约束,以及如何开始搭建REST服务时,却很少有人能够清晰地说出它到底是什么,需要遵守什么样的准则. ...

  5. Microservice架构模式简介

    在2014年,Sam Newman,Martin Fowler在ThoughtWorks的一位同事,出版了一本新书<Building Microservices>.该书描述了如何按照Mic ...

  6. const,static,extern 简介

    const,static,extern 简介 一.const与宏的区别: const简介:之前常用的字符串常量,一般是抽成宏,但是苹果不推荐我们抽成宏,推荐我们使用const常量. 执行时刻:宏是预编 ...

  7. HTTPS简介

    一.简单总结 1.HTTPS概念总结 HTTPS 就是对HTTP进行了TLS或SSL加密. 应用层的HTTP协议通过传输层的TCP协议来传输,HTTPS 在 HTTP和 TCP中间加了一层TLS/SS ...

  8. 【Machine Learning】机器学习及其基础概念简介

    机器学习及其基础概念简介 作者:白宁超 2016年12月23日21:24:51 摘要:随着机器学习和深度学习的热潮,各种图书层出不穷.然而多数是基础理论知识介绍,缺乏实现的深入理解.本系列文章是作者结 ...

  9. Cesium简介以及离线部署运行

    Cesium简介 cesium是国外一个基于JavaScript编写的使用WebGL的地图引擎,一款开源3DGIS的js库.cesium支持3D,2D,2.5D形式的地图展示,可以自行绘制图形,高亮区 ...

随机推荐

  1. 大数据技术之Hadoop(MapReduce)

    第1章 MapReduce概述 1.1 MapReduce定义 1.2 MapReduce优缺点 1.2.1 优点 1.2.2 缺点 1.3 MapReduce核心思想 MapReduce核心编程思想 ...

  2. 【OI】拓扑排序

    拓扑排序 首先要求图为DAG 算法:首先将度为1的节点加入队列每次取出队首点u,在图中删去和u相邻的边继续将度数为1的点加入队列 到了最后, 如果没有度数为1的点,则图不是DAG 通过拓扑排序可以给D ...

  3. 源码篇:MBProgressHUD

    源码来源:点此 版本:0.9.1 MBProgressHUD是一个显示HUD窗口的第三方类库,用于在执行一些后台任务时,在程序中显示一个表示进度的loading视图和两个可选的文本提示的HUD窗口.我 ...

  4. Libevent:5events相关

    Libevents的基本操作单元是event,每一个event代表了一些条件的集合,这些条件包括: 文件描述符已经准备好读或写 文件描述符正在变为就绪,准备好读或写(仅限于边沿触发) 超时事件 信号发 ...

  5. Spring中配置DataSource数据源的几种选择

    从JNDI获得DataSource. 从第三方的连接池获得DataSource. 使用DriverManagerDataSource获得DataSource. 一.从JNDI获得DataSource ...

  6. ArcGIS 如何设置地图显示范围大小

    说来惭愧,学ArcGIS也已经有两年了.今天才知道原来ArcGIS是可以设置地图显示范围大小的 打开ArcMap,选择左边图例的图层(Layers) ,右键点击,选择属性(Properties..), ...

  7. 修改eclipse默认注释

    windows-->preference-->Java-->Code Style-->Code Templates -->Comments :注释--> ... 关 ...

  8. 2018-9-19-Roslyn-通过-Nuget-管理公司配置

    title author date CreateTime categories Roslyn 通过 Nuget 管理公司配置 lindexi 2018-9-19 10:57:5 +0800 2018- ...

  9. ROW_NUMBER(),不允许并列名次、相同值名次不重复,结果如123456……

    将score按ID分组排名:row_number() over(partition by id order by score desc) 将score不分组排名:row_number() over(o ...

  10. Java练习 SDUT-1230_平方和与立方和

    平方和与立方和 Time Limit: 1000 ms Memory Limit: 65536 KiB Problem Description 给定一段连续的整数,求出他们中所有偶数的平方和以及所有奇 ...