转-Hive/Phoenix + Druid + JdbcTemplate 在 Spring Boot 下的整合
Hive/Phoenix + Druid + JdbcTemplate 在 Spring Boot 下的整合
- 标签:
- hadoop /
- spring boot /
- hive /
- phoenix /
- druid
- 1959
一.POM依赖
作者的hadoop集群环境为:
HDFS,YARN,MapReduce2 : 2.7.3
Hive : 1.2.1000
HBase : 1.1.2
注:phoenix版本依赖性较强,请注意不同发行版之间的差异(直接从集群服务器上获取jar包最为可靠)
- <properties>
- <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
- <spring-data-hadoop.version>2.4.0.RELEASE</spring-data-hadoop.version>
- <hive.version>1.2.1</hive.version>
- <phoenix-client.version>4.7</phoenix-client.version>
- <druid.version>1.0.27</druid.version>
- </properties>
- <dependencies>
- <dependency>
- <groupId>org.springframework.boot</groupId>
- <artifactId>spring-boot-starter-jdbc</artifactId>
- </dependency>
- <dependency>
- <groupId>org.springframework.data</groupId>
- <artifactId>spring-data-hadoop</artifactId>
- <version>${spring-data-hadoop.version}</version>
- </dependency>
- <dependency>
- <groupId>org.apache.hive</groupId>
- <artifactId>hive-jdbc</artifactId>
- <version>${hive.version}</version>
- </dependency>
- <dependency>
- <groupId>org.apache.phoenix</groupId>
- <artifactId>phoenix-client</artifactId>
- <version>${phoenix-client.version}</version>
- </dependency>
- <dependency>
- <groupId>com.alibaba</groupId>
- <artifactId>druid</artifactId>
- <version>${druid.version}</version>
- </dependency>
- </dependencies>
二.spring boot 配置文件
因为spring boot 是默认且推荐采用yaml和properties配置文件的方式。因此,作者在这里采用yaml方式为例:
application.yml:
- # hive 数据源自定义配置
- hive:
- url: jdbc:hive2://192.168.61.43:10000/default
- type: com.alibaba.druid.pool.DruidDataSource
- driver-class-name: org.apache.hive.jdbc.HiveDriver
- username: hive
- password: hive
- # phoenix 数据源自定义配置
- phoenix:
- enable: true
- url: jdbc:phoenix:192.168.61.43
- type: com.alibaba.druid.pool.DruidDataSource
- driver-class-name: org.apache.phoenix.jdbc.PhoenixDriver
- username:
- password:
- default-auto-commit: true
当然,druid还有很多其它可选配置,请读者自行斟酌:
- max-active: 100
- initialSize: 1
- maxWait: 60000
- minIdle: 1
- timeBetweenEvictionRunsMillis: 60000
- minEvictableIdleTimeMillis: 300000
- testWhileIdle: true
- testOnBorrow: false
- testOnReturn: false
- poolPreparedStatements: true
- maxOpenPreparedStatements: 50
三.spring boot 配置Bean实现
因为上述配置信息为自定义的信息,spring boot 的 auto configuration 并不能完全理解编码者的意图,因此我们要手动创造数据源Bean:
Hive:
- /**
- * hive数据源配置
- * @author chenty
- *
- */
- @Configuration
- public class HiveDataSource {
- @Autowired
- private Environment env;
- @Bean(name = "hiveJdbcDataSource")
- @Qualifier("hiveJdbcDataSource")
- public DataSource dataSource() {
- DruidDataSource dataSource = new DruidDataSource();
- dataSource.setUrl(env.getProperty("hive.url"));
- dataSource.setDriverClassName(env.getProperty("hive.driver-class-name"));
- dataSource.setUsername(env.getProperty("hive.username"));
- dataSource.setPassword(env.getProperty("hive.password"));
- return dataSource;
- }
- @Bean(name = "hiveJdbcTemplate")
- public JdbcTemplate hiveJdbcTemplate(@Qualifier("hiveJdbcDataSource") DataSource dataSource) {
- return new JdbcTemplate(dataSource);
- }
- }
Phoenix:
- /**
- * phoenix数据源配置
- * @author chenty
- *
- */
- @Configuration
- public class PhoenixDataSource {
- @Autowired
- private Environment env;
- @Bean(name = "phoenixJdbcDataSource")
- @Qualifier("phoenixJdbcDataSource")
- public DataSource dataSource() {
- DruidDataSource dataSource = new DruidDataSource();
- dataSource.setUrl(env.getProperty("phoenix.url"));
- dataSource.setDriverClassName(env.getProperty("phoenix.driver-class-name"));
- dataSource.setUsername(env.getProperty("phoenix.username"));//phoenix的用户名默认为空
- dataSource.setPassword(env.getProperty("phoenix.password"));//phoenix的密码默认为空
- dataSource.setDefaultAutoCommit(Boolean.valueOf(env.getProperty("phoenix.default-auto-commit")));
- return dataSource;
- }
- @Bean(name = "phoenixJdbcTemplate")
- public JdbcTemplate phoenixJdbcTemplate(@Qualifier("phoenixJdbcDataSource") DataSource dataSource) {
- return new JdbcTemplate(dataSource);
- }
- }
四.数据源测试
接下来我们只需在测试类中,注入 hive/phoenix 的 JdbcTemplate,即可实现 hive/phoenix 的数据交互:
Hive:
- @RunWith(SpringJUnit4ClassRunner.class)
- @SpringApplicationConfiguration(HiveServiceApplication.class)
- public class MainTest {
- @Autowired
- @Qualifier("hiveJdbcTemplate")
- JdbcTemplate hiveJdbcTemplate;
- @Test
- public void DataSourceTest() {
- // create table
- StringBuffer sql = new StringBuffer("create table IF NOT EXISTS ");
- sql.append("HIVE_TEST1 ");
- sql.append("(KEY INT, VALUE STRING) ");
- sql.append("PARTITIONED BY (S_TIME DATE)"); // 分区存储
- sql.append("ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' "); // 定义分隔符
- sql.append("STORED AS TEXTFILE"); // 作为文本存储
- // drop table
- // StringBuffer sql = new StringBuffer("DROP TABLE IF EXISTS ");
- // sql.append("HIVE_TEST1");
- hiveJdbcTemplate.execute(sql.toString());
- }
- }
Phoenix:
- @RunWith(SpringJUnit4ClassRunner.class)
- @SpringApplicationConfiguration(HBaseServiceApplication.class)
- public class MainTest {
- @Autowired
- @Qualifier("phoenixJdbcTemplate")
- JdbcTemplate phoenixJdbcTemplate;
- @Test
- public void DataSourceTest() {
- //phoenix
- phoenixJdbcTemplate.execute("create table IF NOT EXISTS PHOENIX_TEST2 (ID INTEGER not null primary key, Name varchar(20),Age INTEGER)");
- }
- }
五.传统方式
虽然 spring boot 本身是不推荐传统的xml配置的,但是实际生产过程中因各种客观因素,导致有时我们不得不引入传统的xml形式的配置文件。因此针对 hive/phoenix 如果用xml配置文件,并且在spring boot 下如何实现再做下简单的介绍:
application.xml:
- <!-- 配置HiveTemplate -->
- <bean id="hiveTemplate" class="org.springframework.jdbc.core.JdbcTemplate">
- <constructor-arg ref="hiveDataSource"/>
- <qualifier value="hiveTemplate"/>
- </bean>
- <bean id="hiveDataSource" class="com.alibaba.druid.pool.DruidDataSource">
- <property name="driverClassName" value="org.apache.hive.jdbc.HiveDriver"/>
- <property name="url" value="jdbc:hive2://172.20.36.212:10000/default"/>
- <property name="username" value="hive"/>
- <property name="password" value="hive"/>
- <!-- 初始化连接大小 -->
- <property name="initialSize" value="0" />
- <!-- 连接池最大使用连接数量 -->
- <property name="maxActive" value="1500" />
- <!-- 连接池最小空闲 -->
- <property name="minIdle" value="0" />
- <!-- 获取连接最大等待时间 -->
- <property name="maxWait" value="60000" />
- </bean>
- <!-- 配置PhoenixTemplate -->
- <bean id="phoenixTemplate" class="org.springframework.jdbc.core.JdbcTemplate">
- <constructor-arg ref="phoenixDataSource"/>
- <qualifier value="phoenixJdbcTemplate"/>
- </bean>
- <bean id="phoenixDataSource" class="com.alibaba.druid.pool.DruidDataSource">
- <property name="driverClassName" value="org.apache.phoenix.jdbc.PhoenixDriver"/>
- <property name="url" value="jdbc:phoenix:172.20.36.212"/>
- <!-- 初始化连接大小 -->
- <property name="initialSize" value="0" />
- <!-- 连接池最大使用连接数量 -->
- <property name="maxActive" value="1500" />
- <!-- 连接池最小空闲 -->
- <property name="minIdle" value="0" />
- <!-- 获取连接最大等待时间 -->
- <property name="maxWait" value="60000" />
- <!--因为Phoenix进行数据更改时不会自动的commit,必须要添加defaultAutoCommit属性,否则会导致数据无法提交的情况-->
- <property name="defaultAutoCommit" value="true"/>
- </bean>
实现测试:
有了xml配置,我们只需在上述第四步骤测试类的类定义上加入如下注解,即可实现xml配置文件信息的加载:
- @ImportResource({"classpath:application.xml","..."})
注意:配置文件中bean的名字要与注入注解的名字一致
转-Hive/Phoenix + Druid + JdbcTemplate 在 Spring Boot 下的整合的更多相关文章
- Spring Boot下Druid连接池+mybatis
目前Spring Boot中默认支持的连接池有dbcp,dbcp2, hikari三种连接池. 引言: 在Spring Boot下默认提供了若干种可用的连接池,Druid来自于阿里系的一个开源连 ...
- Spring Boot 2.x整合Redis
最近在学习Spring Boot 2.x整合Redis,在这里和大家分享一下,希望对大家有帮助. Redis是什么 Redis 是开源免费高性能的key-value数据库.有以下的优势(源于Redis ...
- spring boot下使用logback或log4j生成符合Logstash标准的JSON格式
spring boot下使用logback或log4j生成符合Logstash标准的JSON格式 一.依赖 由于配置中使用了json格式的日志输出,所以需要引入如下依赖 "net.logst ...
- spring boot 2.0 整合 elasticsearch6.5.3,spring boot 2.0 整合 elasticsearch NoNodeAvailableException
原文地址:spring boot 2.0 整合 elasticsearch NoNodeAvailableException 原文说的有点问题,下面贴出我的配置: 原码云项目地址:https://gi ...
- Spring Boot入门 and Spring Boot与ActiveMQ整合
1.Spring Boot入门 1.1什么是Spring Boot Spring 诞生时是 Java 企业版(Java Enterprise Edition,JEE,也称 J2EE)的轻量级代替品.无 ...
- Spring Boot和Dubbo整合
provider端 POM依赖 <dependencies> <dependency> <groupId>org.springframework.boot</ ...
- RabbitMQ入门:在Spring Boot 应用中整合RabbitMQ
在上一篇随笔中我们认识并安装了RabbitMQ,接下来我们来看下怎么在Spring Boot 应用中整合RabbitMQ. 先给出最终目录结构: 搭建步骤如下: 新建maven工程amqp 修改pom ...
- 【spring boot】10.spring boot下的单元测试
spring boot下的单元测试,思前想后还是需要单独用一章篇幅来看看. 然后在看了介绍和使用时候,我感觉并不想多去看了. 但是还是给后来人留下参考的路径: 官网说明:https://spring. ...
- 【ActiveMQ】2.spring Boot下使用ActiveMQ
在spring boot下使用ActiveMQ,需要一下几个条件 1.安装并启动了ActiveMQ,参考:http://www.cnblogs.com/sxdcgaq8080/p/7919489.ht ...
随机推荐
- English trip -- VC(情景课) 6 D
Read 阅读 Teresa‘s Day Treesa's is busy today. he meeting with her friend Joan is at 10:00. Her docto ...
- Dubbo项目一段时间后提供者消失
Dubbo项目用了一段时间后发现接口不通了,错误500 打开监控中心发现提供者不见了 查看下日志文件发现报如下错 2018-08-06 15:10:18,008 [localhost-startSto ...
- Dubbo 环境搭建
CentOS7 x64 JDK1.8 1. wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.8/zoo ...
- Java中HashMap的实现原理
最近面试中被问及Java中HashMap的原理,瞬间无言以对,因此痛定思痛觉得研究一番. 一.Java中的hashCode和equals 1.关于hashCode hashCode的存在主要是用于查找 ...
- IOS8-人机界面指南
[ISUX转译]iOS 8人机界面指南(一):UI设计基础 糖箔糊2014.09.23 文章索引 1.1 为iOS而设计(Designing for iOS) 1.1.1 以内容为核心(Defer t ...
- Python简单网页爬虫——极客学院视频自动下载
http://blog.csdn.net/supercooly/article/details/51003921
- js打开、关闭页面和运行代码那些事
<!doctype html> <html> <head> <meta charset="utf-8"> <meta name ...
- linux fdisk 添加硬盘,分区,挂载,永久挂载
具体步骤: 1.SSH登陆服务器: 2.列出所有硬盘: 命令:ll /dev/disk/by-path 我这里还有个sda 3.查看磁盘分区情况: 命令 :fdisk -l 最上面两部分表示我有两个物 ...
- os、os.path模块中关于文件、目录常用的函数使用方法
os模块中关于文件/目录常用的函数使用方法 函数名 使用方法 getcwd() 返回当前工作目录 chdir(path) 改变工作目录 listdir(path='.') 列举 ...
- 玩转X-CTR100 l STM32F4 l WS2812全彩LED灯
更多塔克创新资讯欢迎登陆[塔克社区 www.xtark.cn ][塔克博客 www.cnblogs.com/xtark/ ] WS2812B RGB全彩LED灯珠,只需通过一根信号线控制多个 ...