一,为什么要访问多个mysql数据源?

实际的生产环境中,我们的数据并不会总放在一个数据库,

例如:业务数据库:存放了用户/商品/订单

统计数据库:按年、月、日的针对用户、商品、订单的统计表

因为统计库中的数据是对业务库中数据的提取和挖掘,

但与业务的运行没有直接关系,所以我们会分开存放,

把它们放到两个库中。

但有时我们会有访问两个库中数据的需求,这时就需要访问两个或以上数据源

说明:刘宏缔的架构森林是一个专注架构的博客,地址:https://www.cnblogs.com/architectforest

对应的源码可以访问这里获取: https://github.com/liuhongdi/

说明:作者:刘宏缔 邮箱: 371125307@qq.com

二,演示项目的相关信息

1,项目地址:

https://github.com/liuhongdi/multimysql

2,项目原理

我们需要访问两个数据库,一个名字:store,

一个名字:tiku

然后在一个方法中获取到两个库中指定数据表的数据

3,项目结构,如图:

三,配置文件说明

1,application.properties

#mysql
spring.datasource.store.url=jdbc:mysql://127.0.0.1:3306/store?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=Asia/Shanghai
spring.datasource.store.username=root
spring.datasource.store.password=lhddemo
spring.datasource.store.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.store.maximum-pool-size=12
spring.datasource.store.minimum-idle=10
spring.datasource.store.idle-timeout=500000
spring.datasource.store.max-lifetime=540000 spring.datasource.tiku.url=jdbc:mysql://localhost:3306/tiku?useUnicode=true&characterEncoding=utf-8&useSSL=FALSE&serverTimezone=Asia/Shanghai
spring.datasource.tiku.username=root
spring.datasource.tiku.password=lhddemo
spring.datasource.tiku.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.tiku.maximum-pool-size=12
spring.datasource.tiku.minimum-idle=10
spring.datasource.tiku.idle-timeout=500000
spring.datasource.tiku.max-lifetime=540000

说明:我们需要访问两个数据库:store,tiku

注意max-lifetime的设置:这个值是连接池中一个连接的生命时间长度,

设置应该低于mysql配置文件中的wait-timeout值的设置,

idle-timeout是指空闲的连接的超时时间,应该不大于max-lifetime的值

maximum-pool-size是池中连接的数据,默认值是10,我们设置为12,保留默认值也没问题

2,两个数据表的结构:

store.goods

CREATE TABLE `goods` (
`goodsId` int(11) NOT NULL AUTO_INCREMENT COMMENT 'id',
`goodsName` varchar(500) CHARACTER SET utf8mb4 COLLATE utf8mb4_0900_ai_ci NOT NULL DEFAULT '' COMMENT 'name',
`subject` varchar(200) NOT NULL DEFAULT '' COMMENT '标题',
`price` decimal(15,2) NOT NULL DEFAULT '0.00' COMMENT '价格',
`stock` int(11) NOT NULL DEFAULT '0' COMMENT 'stock',
PRIMARY KEY (`goodsId`)
) ENGINE=InnoDB AUTO_INCREMENT=0 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='商品表'

tiku.category

CREATE TABLE `category` (
`category_id` int(11) NOT NULL AUTO_INCREMENT COMMENT 'id',
`category_name` varchar(100) NOT NULL DEFAULT '' COMMENT '分类名称',
PRIMARY KEY (`category_id`),
UNIQUE KEY `category_name` (`category_name`)
) ENGINE=InnoDB AUTO_INCREMENT=0 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='分类'

四,java代码说明

1,StoreDataSourceConfig.java

@Configuration
//得到mapper
@MapperScan(basePackages = StoreDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "storeSqlSessionFactory")
public class StoreDataSourceConfig {
// 指定mapper 目录,与其他数据源隔离
static final String PACKAGE = "com.multimysql.demo.mapper.store";
static final String MAPPER_LOCATION = "classpath:mapper/store/*.xml"; @Value("${spring.datasource.store.url}")
private String url; @Value("${spring.datasource.store.username}")
private String username; @Value("${spring.datasource.store.password}")
private String password; @Value("${spring.datasource.store.driver-class-name}")
private String driverClass; @Value("${spring.datasource.store.maximum-pool-size}")
private int maximumPoolSize; @Value("${spring.datasource.store.minimum-idle}")
private int minimumIdle; @Value("${spring.datasource.store.idle-timeout}")
private long idleTimeout; @Value("${spring.datasource.store.max-lifetime}")
private long maxLifetime; //得到datasource
@Bean(name = "storeDataSource")
@Primary
public DataSource storeDataSource() {
HikariDataSource dataSource=new HikariDataSource();
dataSource.setJdbcUrl(url);
dataSource.setUsername(username);
dataSource.setPassword(password);
dataSource.setDriverClassName(driverClass);
dataSource.setMaximumPoolSize(maximumPoolSize);
dataSource.setMinimumIdle(minimumIdle);
dataSource.setIdleTimeout(idleTimeout);
dataSource.setMaxLifetime(maxLifetime);
return dataSource;
} //得到TransactionManager
@Bean(name = "storeTransactionManager")
@Primary
public DataSourceTransactionManager storeTransactionManager() {
return new DataSourceTransactionManager(storeDataSource());
} //得到SqlSessionFactory
@Bean(name = "storeSqlSessionFactory")
@Primary
public SqlSessionFactory storeSqlSessionFactory(@Qualifier("storeDataSource") DataSource storeDataSource)
throws Exception {
final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
sessionFactory.setDataSource(storeDataSource);
sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
.getResources(StoreDataSourceConfig.MAPPER_LOCATION));
return sessionFactory.getObject();
}
}

生成到store数据库的数据源,

注意指定了mapper文件的路径,

两个不同数据源的mapper分别放到了不同的目录下,避免有冲突

2,TikuDataSourceConfig.java,

为节省篇幅,不再贴出代码,大家可以在github上自取

3,HomeController.java

@Controller
@RequestMapping("/home")
public class HomeController { @Resource
private GoodsMapper goodsMapper; @Resource
private CategoryMapper categoryMapper; @Resource
private HikariDataSource storeDataSource; @Resource
private HikariDataSource tikuDataSource; //商品详情 参数:商品id
@GetMapping("/goodsone")
@ResponseBody
public String goodsOne(@RequestParam(value="goodsid",required = true,defaultValue = "0") Long goodsId) throws SQLException {
System.out.println("------goodsInfo begin");
Goods goods = goodsMapper.selectOneGoods(goodsId);
Category category=categoryMapper.selectOneCategory("4");
return "goods:"+goods.toString()+";category:"+category.toString();
} //显示统计信息
@GetMapping("/stats")
@ResponseBody
public Object stats() throws SQLException { Connection connection = storeDataSource.getConnection();
connection.close();
HikariPoolMXBean storePool = storeDataSource.getHikariPoolMXBean();
int active = storePool.getActiveConnections();
int total = storePool.getTotalConnections();
int idle = storePool.getIdleConnections();
int theadsAwaitting = storePool.getThreadsAwaitingConnection();
int maximumPoolsize = storeDataSource.getMaximumPoolSize();
int minimumIdle = storeDataSource.getMinimumIdle();
String poolName = storeDataSource.getPoolName();
long connTimeout = storeDataSource.getConnectionTimeout();
long idleTimeout = storeDataSource.getIdleTimeout();
long maxLifetime = storeDataSource.getMaxLifetime(); String status = "store pool:<br/>";
status += "poolName:" + poolName+"<br/>";
status += "active:" + active+"<br/>";
status += "total:" + total+"<br/>";
status += "idle:" + idle+"<br/>";
status += "theadsAwaitting:" + theadsAwaitting+"<br/>";
status += "maximumPoolsize:" + maximumPoolsize+"<br/>";
status += "minimumIdle:" + minimumIdle+"<br/>";
status += "connTimeout:" + connTimeout+"<br/>";
status += "idleTimeout:" + idleTimeout+"<br/>";
status += "maxLifetime:" + maxLifetime+"<br/>"; Connection tikuConnection = tikuDataSource.getConnection();
tikuConnection.close();
HikariPoolMXBean tikuPool = tikuDataSource.getHikariPoolMXBean();
int active2 = tikuPool.getActiveConnections();
int total2 = tikuPool.getTotalConnections();
int idle2 = tikuPool.getIdleConnections();
int theadsAwaitting2 = tikuPool.getThreadsAwaitingConnection();
int maximumPoolsize2 = tikuDataSource.getMaximumPoolSize();
int minimumIdle2 = tikuDataSource.getMinimumIdle();
String poolName2 = tikuDataSource.getPoolName();
long connTimeout2 = tikuDataSource.getConnectionTimeout();
long idleTimeout2 = tikuDataSource.getIdleTimeout();
long maxLifetime2 = tikuDataSource.getMaxLifetime(); status += "tiku pool:<br/>";
status += "poolName:" + poolName2+"<br/>";
status += "active:" + active2+"<br/>";
status += "total:" + total2+"<br/>";
status += "idle:" + idle2+"<br/>";
status += "theadsAwaitting:" + theadsAwaitting2+"<br/>";
status += "maximumPoolsize:" + maximumPoolsize2+"<br/>";
status += "minimumIdle:" + minimumIdle2+"<br/>";
status += "connTimeout:" + connTimeout2+"<br/>";
status += "idleTimeout:" + idleTimeout2+"<br/>";
status += "maxLifetime:" + maxLifetime2+"<br/>"; return status;
}

说明:goodsOne方法:返回store.goods表中的商品信息和tiku.category表中的分类信息

stats方法:打印两个Hikari连接池的信息

4,其他的 类文件和mapper文件,请访问github获取

五,效果测试

1,访问商品信息地址:

http://127.0.0.1:8080/home/goodsone?goodsid=3

返回:

goods: Goods:goodsId=3 goodsName=100分电动牙刷 subject=好用到让你爱上刷牙 price=59.00 stock=15
category: Goods:category_id=4 category_name=bash

2,访问统计地址:

http://127.0.0.1:8080/home/stats

返回:

store pool:
poolName:HikariPool-1
active:0
total:10
idle:10
theadsAwaitting:0
maximumPoolsize:12
minimumIdle:10
connTimeout:30000
idleTimeout:500000
maxLifetime:540000

tiku pool:
poolName:HikariPool-2
active:0
total:10
idle:10
theadsAwaitting:0
maximumPoolsize:12
minimumIdle:10
connTimeout:30000
idleTimeout:500000
maxLifetime:540000

六,查看spring boot的版本

  .   ____          _            __ _ _
/\\ / ___'_ __ _ _(_)_ __ __ _ \ \ \ \
( ( )\___ | '_ | '_| | '_ \/ _` | \ \ \ \
\\/ ___)| |_)| | | | | || (_| | ) ) ) )
' |____| .__|_| |_|_| |_\__, | / / / /
=========|_|==============|___/=/_/_/_/
:: Spring Boot :: (v2.3.1.RELEASE)

spring boot:使用mybatis访问多个mysql数据源/查看Hikari连接池的统计信息(spring boot 2.3.1)的更多相关文章

  1. spring boot:使mybatis访问多个druid数据源(spring boot 2.3.2)

    一,为什么要使用多个数据源? 1,什么情况下需要使用多个数据源? 当我们需要访问不同的数据库时,则需要配置配置多个数据源, 例如:电商的业务数据库(包括用户/商品/订单等)            和统 ...

  2. 小D课堂-SpringBoot 2.x微信支付在线教育网站项目实战_3-1.整合Mybatis访问数据库和阿里巴巴数据源

    笔记 1.整合Mybatis访问数据库和阿里巴巴数据源     简介:整合mysql 加入mybatis依赖,和加入alibaba druid数据源 1.加入依赖(可以用 http://start.s ...

  3. DB数据源之SpringBoot+MyBatis踏坑过程(五)手动使用Hikari连接池

    DB数据源之SpringBoot+MyBatis踏坑过程(五)手动使用Hikari连接池 liuyuhang原创,未经允许禁止转载  系列目录连接 DB数据源之SpringBoot+Mybatis踏坑 ...

  4. Druid连接池及监控在spring中的配置

    Druid连接池及监控在spring配置如下: <bean id="dataSource" class="com.alibaba.druid.pool.DruidD ...

  5. Spring学习总结(12)——Druid连接池及监控在spring配置

    Druid连接池及监控在spring配置如下: <bean id="dataSource" class="com.alibaba.druid.pool.DruidD ...

  6. C3P0连接池在hibernate和spring中的配置

    首先为什么要使用连接池及为什么要选择C3P0连接池,这里就不多说了,目前C3P0连接池还是比较方便.比较稳定的连接池,能与spring.hibernate等开源框架进行整合. 一.hibernate中 ...

  7. Spring boot教程mybatis访问MySQL的尝试

    Windows 10家庭中文版,Eclipse,Java 1.8,spring boot 2.1.0,mybatis-spring-boot-starter 1.3.2,com.github.page ...

  8. 使用MyBatis集成阿里巴巴druid连接池(不使用spring)

    在工作中发现mybatis默认的连接池POOLED,运行时间长了会报莫名其妙的连接失败错误.因此采用阿里巴巴的Druid数据源(码云链接 ,中文文档链接). mybatis更多数据源参考博客链接 . ...

  9. SpringBoot配置MySql数据库和Druid连接池

    1.pom文件增加相关依赖 <dependency> <groupId>mysql</groupId> <artifactId>mysql-connec ...

随机推荐

  1. why哥被阿里一道基础面试题给干懵了,一气之下写出万字长文。

    这是why的第 65 篇原创文章 荒腔走板 大家好,我是 why,欢迎来到我连续周更优质原创文章的第 65 篇.老规矩,先荒腔走板聊聊技术之外的东西. 上面这图是去年的成都马拉松赛道上,摄影师抓拍的我 ...

  2. C#开发PACS医学影像处理系统(六):加载Dicom影像

    对于一款软件的扩展性和维护性来说,上层业务逻辑和UI表现一定要自己开发才有控制权,否则项目上线之后容易被掣肘, 而底层图像处理,我们不需要重复造轮子,这里推荐使用fo-dicom,同样基于Dicom3 ...

  3. 第18课 - make 中的路径搜索(下)

    第18课 - make 中的路径搜索(下) 1. 问题一 当 VPATH 和 vpath 同时出现,make 会如何处理? 工程项目的目录结构如下图所示,src1 和 src2 中都包含了 func. ...

  4. 代码检查工具 Sonar 安装&使用

    本文主要说明Sonar的安装方式并附上依赖安装包,本文目标只实现本地搭建测试的Sonar环境,以及本地的测试项目的非定制化扫描 本机测试环境:Win10-X64,.vs2017      依赖包: 1 ...

  5. minium-微信小程序自动化框架-python,官方文档

    minium文档 个人将其部署到了自己的服务器上,如有需要可以访问共同学习这个minium 用python来实现小程序自动化测试... 文档地址 http://49.232.203.244:3000/ ...

  6. 记一次springboot(2.1.6)+springcloud(Greenwich.SR2) 配置中心搭建,支持在线刷新

    1.配置eureka注册中心 EureKaSpringApplication: package com.crow.eureka; import org.springframework.boot.Spr ...

  7. [HarekazeCTF2019]Avatar Uploader 1 &&

    [HarekazeCTF2019]Avatar Uploader 1 这是一个文件上传的题目,但是这导体是通过满足条件来获取flag的. 他有两个函数,一个是getimagesize,还有一个是FIL ...

  8. vulnhub靶机Os-hackNos-1

    vulnhub靶机Os-hackNos-1 信息搜集 nmap -sP 192.168.114.0/24 找到开放机器192.168.114.140这台机器,再对这台靶机进行端口扫描. 这里对他的端口 ...

  9. 手把手教你在 TKE 集群中实现简单的蓝绿发布和灰度发布

    概述 如何在腾讯云 Kubernetes 集群实现蓝绿发布和灰度发布?通常要向集群额外部署其它开源工具来实现,比如 Nginx Ingress,Traefik 等,或者让业务上 Service Mes ...

  10. python环境变量的安装与配置

    安装最新的3.x(2.x如今已经不常见) 下图来源:百度(电脑已安装,不能重复) 一定要勾选"Add Python 3.6 to PATH".(如果没有勾选在安装完成后需要手动添加 ...