Mybatisplus3.5.1+shardingsphere-jdbc5.1.1分表
注意使用雪花ID的话,查询ID时候必须使用long类型的ID,不要使用MP自带的默认的Serializable类型。否则会提示分片主键id数据类型和分片算法不匹配Inline sharding algorithms expression
xxxand sharding columnxxnot match错误。。。
导入依赖
<!--sharding-jdbc 分库分表-->
<dependency>
<groupId>org.apache.shardingsphere</groupId>
<artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId>
<version>5.1.1</version>
</dependency>
<!--jdbc-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-jdbc</artifactId>
</dependency>
<!--Mybatis-plus 代码生成器-->
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>mybatis-plus-boot-starter</artifactId>
<version>${mybatisplus.verison}</version>
</dependency>
建立10张表
CREATE TABLE `sharding_jdbc_0` (
`shading_table_id` bigint(22) NOT NULL COMMENT 'ID',
`name` varchar(50) DEFAULT NULL COMMENT '名称',
`state` int(2) DEFAULT '1' COMMENT '状态:1有效0无效',
`create_time` datetime DEFAULT NULL COMMENT '创建时间',
`user_id` bigint(22) DEFAULT NULL COMMENT '用户ID',
PRIMARY KEY (`shading_table_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
CREATE TABLE `sharding_jdbc_1` (
`shading_table_id` bigint(22) NOT NULL COMMENT 'ID',
`name` varchar(50) DEFAULT NULL COMMENT '名称',
`state` int(2) DEFAULT '1' COMMENT '状态:1有效0无效',
`create_time` datetime DEFAULT NULL COMMENT '创建时间',
`user_id` bigint(22) DEFAULT NULL COMMENT '用户ID',
PRIMARY KEY (`shading_table_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
.........省略其他表。。。。。。。。
mybatisplus的配置
mybatis-plus:
type-aliases-package: com.gton.user.entity
mapper-locations: classpath*:com/gton/user/mapper/xml/*Mapper.xml
configuration:
map-underscore-to-camel-case: true #开启驼峰命名
cache-enabled: false #开启二级缓存
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl # 控制台日志
check-config-location: true # 检查xml是否存在
type-enums-package: com.gton.enumPackage #通用枚举开启
global-config:
db-config:
logic-not-delete-value: 1
logic-delete-field: isDel
logic-delete-value: 0
ShardingJDBC的配置
注意yml的配置格式严格要求,错一个空格都不行
spring:
shardingsphere:
datasource:
names: masterdb,ds02
masterdb:
type: com.zaxxer.hikari.HikariDataSource
driverClassName: com.mysql.jdbc.Driver
# 正常的连接数据库
url: jdbc:mysql://127.0.0.1:3306/study?zeroDateTimeBehavior=convertToNull&useSSL=false&useUnicode=true&characterEncoding=UTF-8
username: root
password: root
ds02:
type: com.zaxxer.hikari.HikariDataSource
driverClassName: com.mysql.jdbc.Driver
# 正常的连接数据库
url: jdbc:mysql://127.0.0.1:3306/study?zeroDateTimeBehavior=convertToNull&useSSL=false&useUnicode=true&characterEncoding=UTF-8
username: root
password: root
props:
# 日志显示SQL
sql.show: true
rules:
sharding:
# 表的分片策略
tables:
# 逻辑表的名称
sharding_jdbc:
# 数据节点配置,采用Groovy表达式
actual-data-nodes: masterdb.sharding_jdbc_$->{0..9}
# 配置策略
table-strategy:
# 用于单分片键的标准分片场景
standard:
sharding-column: shading_table_id
# 分片算法名字
sharding-algorithm-name: use-inline
key-generate-strategy: # 主键生成策略
column: shading_table_id # 主键列
key-generator-name: snowflake # 策略算法名称(推荐使用雪花算法)
key-generators:
snowflake:
type: SNOWFLAKE
sharding-algorithms:
use-inline:
type: INLINE
props:
# 分片算法行表达式,需符合groovy语法 '& Integer.MAX_VALUE' 位运算使hash值为正数, 取模运算
# algorithm-expression: sharding_jdbc_$->{(id.hashCode() & Integer.MAX_VALUE) % 9}
# 获取id取模范围为0-10, 包含0, 不包含10
algorithm-expression: sharding_jdbc_$->{shading_table_id % 10}
mode:
type: memory
实体类
/**
* (ShardingJdbc1)表实体类
*
* @author 郭童
* @since 2023-05-20 14:58:06
*/
@Data
@Accessors(chain = true)
@ApiModel(value = "ShardingJdbc1", description = "EasyCode")
public class ShardingJdbc implements Serializable {
private static final long serialVersionUID = 1L;
@TableId(type = IdType.ASSIGN_ID)
@ApiModelProperty("ID")
private Long shadingTableId;
@TableField(value = "name")
@ApiModelProperty("名称")
private String name;
@TableField(value = "state")
@ApiModelProperty("状态:1有效0无效")
private Integer state;
@TableField(value = "create_time", fill = FieldFill.INSERT)
@ApiModelProperty("创建时间")
@JsonFormat(pattern = "yyyy-MM-dd HH:mm:ss")
private LocalDateTime createTime;
@TableField(value = "user_id")
@ApiModelProperty("用户ID")
private Long userId;
}
Mapper的接口
/**
* (ShardingJdbc1)表数据库访问层
*
* @author 郭童
* @since 2023-05-20 14:58:06
*/
@Mapper
public interface ShardingJdbcMapper extends EasyBaseMapper<ShardingJdbc> {
}
/**
* @description: EasyBaseMapper<T> extends BaseMapper<T>
* @author: GuoTong
* @createTime: 2022-12-06 16:29
* @since JDK 1.8 OR 11
**/
public interface EasyBaseMapper<T> extends BaseMapper<T> {
/**
* 批量插入 仅适用于mysql
*
* @param entityList 实体列表
* @return 影响行数
*/
Integer insertBatchSomeColumn(Collection<T> entityList);
}
其余的三层就不一一赘述了!!!!各种MP的代码生成器!!执行解决!!推荐EasyCode全自动代码生成器,配好就很好使。。。我的其他文章介绍使用。。。
Controller的新增和查询
/**
* 通过主键查询单条数据
*
* @param id 主键
* @return 单条数据
*/
@GetMapping("/queryOne/{id}")
public Resp<ShardingJdbc> selectOne(@PathVariable("id") Long id) {
QueryWrapper<ShardingJdbc> queryWrapper = new QueryWrapper<>();
queryWrapper.eq("shading_table_id", id);
return Resp.Ok(this.shardingJdbcService.getOne(queryWrapper));
}
/**
* 新增数据
*
* @param shardingJdbc 实体对象
* @return 新增结果
*/
@PostMapping("/save")
public Resp<String> insert(@RequestBody ShardingJdbc shardingJdbc) {
boolean save = false;
String executeMsg = null;
try {
save = this.shardingJdbcService.save(shardingJdbc);
executeMsg = "新增成功,id 是:" + shardingJdbc.getShadingTableId();
} catch (Exception e) {
executeMsg = e.getMessage();
}
return save ? Resp.Ok(executeMsg) : Resp.error(executeMsg);
}
测试效果!!
新增

查询

捯饬结束!!!!!整合成功!!!
Mybatisplus3.5.1+shardingsphere-jdbc5.1.1分表的更多相关文章
- mysql--使用shardingsphere实现分表
一. 简介 为什么要分表,无非就两个原因,要么是并发太高,要么就是数据量太大. 所谓分表就是把传统的单表扩展为多个数据结构一样的表,通过分表策略确定操作哪一张表. 我使用的分表规则是通过主键id进行取 ...
- 分库分表之ShardingSphere
目录 分库分表诞生的前景 分库分表的方式(垂直拆分,水平复制) 1.垂直拆分 1.1 垂直分库 1.2 垂直分表 2.水平拆分 2.1 水平分库 2.2 水平分表 分库分库中间件 ShardingSp ...
- mysql 分库分表 ~ ShardingSphere生态圈
一 简介 Apache ShardingSphere是一款开源的分布式数据库中间件组成的生态圈二 成员包含 Sharding-JDBC是一款轻量级的Java框架,在JDBC层提供上述核心功能 ...
- 分库分表利器——sharding-sphere
背景 得不到的东西让你彻夜难眠,没有尝试过的技术让我跃跃欲试. 本着杀鸡焉用牛刀的准则,我们倡导够用就行,不跟风,不盲从. 所以,结果就是我们一直没有真正使用分库分表.曾经好几次,感觉没有分库分表(起 ...
- 分库分表(2) --- ShardingSphere(理论)
ShardingSphere---理论 ShardingSphere在中小企业需要分库分表的时候用的会比较多,因为它维护成本低,不需要额外增派人手;而且目前社区也还一直在开发和维护,还算是比较活跃. ...
- 分库分表(3) ---SpringBoot + ShardingSphere 实现读写分离
分库分表(3)---ShardingSphere实现读写分离 有关ShardingSphere概念前面写了两篇博客: 1.分库分表(1) --- 理论 2. 分库分表(2) --- ShardingS ...
- 分库分表(4) ---SpringBoot + ShardingSphere 实现分表
分库分表(4)--- ShardingSphere实现分表 有关分库分表前面写了三篇博客: 1.分库分表(1) --- 理论 2.分库分表(2) --- ShardingSphere(理论) 3.分库 ...
- 分库分表(5) ---SpringBoot + ShardingSphere 实现分库分表
分库分表(5)--- ShardingSphere实现分库分表 有关分库分表前面写了四篇博客: 1.分库分表(1) --- 理论 2.分库分表(2) --- ShardingSphere(理论) 3. ...
- 分库分表(6)--- SpringBoot+ShardingSphere实现分表+ 读写分离
分库分表(6)--- ShardingSphere实现分表+ 读写分离 有关分库分表前面写了五篇博客: 1.分库分表(1) --- 理论 2.分库分表(2) --- ShardingSphere(理论 ...
- Springboot2.x + ShardingSphere 实现分库分表
之前一篇文章中我们讲了基于Mysql8的读写分离(文末有链接),这次来说说分库分表的实现过程. 概念解析 垂直分片 按照业务拆分的方式称为垂直分片,又称为纵向拆分,它的核心理念是专库专用. 在拆分之前 ...
随机推荐
- Helm实战案例一:在Kubernetes上使用Helm搭建Prometheus Operator监控
目录 一.系统环境 二.前言 三.Prometheus Operator简介 四.helm安装prometheus-operator 五.配置prometheus-operator 5.1 修改gra ...
- pcie reset系列之 内核框架
FLR是pci reset的一种. 关于FLR的寄存器操作比较简单, 相关的寄存器有: 配置空间里device cap里的FLR capability bit, 这个表示设备是否支持FLR. 配置空间 ...
- 【Promptulate】一个强大的LLM Prompt Layer框架
本文节选自笔者博客: https://www.blog.zeeland.cn/archives/promptulate666 前言 在构建了[prompt-me]一个专为 Prompt Enginee ...
- Spring Loaded代码热更新实践和原理分析
1.引言 开发者在编码效率和快速迭代中的痛点场景包括: 修改代码后,需要频繁重启应用,导致开发效率低下: 实时调试时,不能立即看到代码修改的结果: 大型项目中,重启的时间成本较高. 针对这些问题,本文 ...
- CentOS 8搭建Docker镜像私有仓库-registry
目录 简介 安装Docker 添加docker yum源 安装docker 确保网络模块开机自动加载 使桥接流量对iptables可见 配置docker 验证docker是否正常 添加用户到docke ...
- FHQ-Treap的详细图解
第一部分 按值分裂的 FHQ-Treap 按值分裂的 FHQ-Treap 的典型例题是P3369 [模板]普通平衡树. 思路 FHQ-Treap 是什么? FHQ-Treap 是二叉搜索树的一种. 比 ...
- Redis核心技术与实践 03 | 高性能IO模型:为什么单线程Redis能那么快?
原文地址:https://time.geekbang.org/column/article/268262 个人博客地址:http://njpkhuan.cn/archives/redis-he-xin ...
- Java与PHP的区别
1.PHP暂时不支持像Java那样的JIT运行时编译的热点代码,但PHP具有opcache机制,能够将脚本对应的opcode缓存在内存中. 补充:JIT与JVM的三种执行模式:解释模式.编译模式.混合 ...
- koa搭建nodejs项目并注册接口
使用nodejs注册接口逻辑处理会比较复杂,直接通过express或者koa能够简化开发流程,这里记录用koa来搭建nodejs项目并注册接口,对koa不太熟悉的话可以参考这一篇.让nodejs开启服 ...
- zookeeper运维常用指令
zkServer.sh ./zkServer.sh start:启动zookeeper ./zkServer.sh stop:停止zookeeper ./zkServer.sh status:查看zo ...