sharing-jdbc实现读写分离及分库分表
需求:
分库:按业务线business_id将不同业务线的订单存储在不同的数据库上;
分表:按user_id字段将不同用户的订单存储在不同的表上,为方便直接用非分片字段order_id查询,可使用基因法;
读写分离:为缓解主库的压力,读操作访问从库;
库表SQL

-- 主库
CREATE DATABASE `database_103`;
CREATE DATABASE `database_112`; -- 从库
CREATE DATABASE `database_slave_103`;
CREATE DATABASE `database_slave_112`; --每个库上分别建立如下表
CREATE TABLE `t_order_0` (
`id` bigint(20) NOT NULL,
`order_id` bigint(20) NOT NULL,
`user_id` bigint(20) NOT NULL,
`business_id` bigint(20) NOT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8; CREATE TABLE `t_order_1` (
`id` bigint(20) NOT NULL,
`order_id` bigint(20) NOT NULL,
`user_id` bigint(20) NOT NULL,
`business_id` bigint(20) NOT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8; CREATE TABLE `t_order_2` (
`id` bigint(20) NOT NULL,
`order_id` bigint(20) NOT NULL,
`user_id` bigint(20) NOT NULL,
`business_id` bigint(20) NOT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `t_order` VALUES (1,1,112); CREATE TABLE `t_order_3` (
`id` bigint(20) NOT NULL,
`order_id` bigint(20) NOT NULL,
`user_id` bigint(20) NOT NULL,
`business_id` bigint(20) NOT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

pom.xml

<!-- sharding-jdbc -->
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>sharding-jdbc-core</artifactId>
<version>1.4.2</version>
</dependency>
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>sharding-jdbc-config-spring</artifactId>
<version>1.4.0</version>
</dependency>

spring-database.xml

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:tx="http://www.springframework.org/schema/tx"
xmlns:rdb="http://www.dangdang.com/schema/ddframe/rdb" xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans.xsd
http://www.springframework.org/schema/tx
http://www.springframework.org/schema/tx/spring-tx.xsd http://www.dangdang.com/schema/ddframe/rdb
http://www.dangdang.com/schema/ddframe/rdb/rdb.xsd"> <bean id="database_112" class="com.alibaba.druid.pool.DruidDataSource" init-method="init"
destroy-method="close">
<property name="driverClassName" value="com.mysql.jdbc.Driver"/>
<property name="url" value="${jdbc.url.112}"></property>
<property name="username" value="${jdbc.username.112}"></property>
<property name="password" value="${jdbc.password.112}"></property>
<property name="maxActive" value="100"/>
<property name="initialSize" value="50"/>
<property name="maxWait" value="60000"/>
<property name="minIdle" value="5"/>
</bean> <bean id="database_slave_112" class="com.alibaba.druid.pool.DruidDataSource" init-method="init"
destroy-method="close">
<property name="driverClassName" value="com.mysql.jdbc.Driver"/>
<property name="url" value="${jdbc.url.slave.112}"></property>
<property name="username" value="${jdbc.username.slave.112}"></property>
<property name="password" value="${jdbc.password.slave.112}"></property>
<property name="maxActive" value="100"/>
<property name="initialSize" value="50"/>
<property name="maxWait" value="60000"/>
<property name="minIdle" value="5"/>
</bean> <bean id="database_103" class="com.alibaba.druid.pool.DruidDataSource" init-method="init"
destroy-method="close">
<property name="driverClassName" value="com.mysql.jdbc.Driver"/>
<property name="url" value="${jdbc.url.103}"></property>
<property name="username" value="${jdbc.username.103}"></property>
<property name="password" value="${jdbc.password.103}"></property>
<property name="maxActive" value="100"/>
<property name="initialSize" value="50"/>
<property name="maxWait" value="60000"/>
<property name="minIdle" value="5"/>
</bean> <bean id="database_slave_103" class="com.alibaba.druid.pool.DruidDataSource" init-method="init"
destroy-method="close">
<property name="driverClassName" value="com.mysql.jdbc.Driver"/>
<property name="url" value="${jdbc.url.slave.103}"></property>
<property name="username" value="${jdbc.username.slave.103}"></property>
<property name="password" value="${jdbc.password.slave.103}"></property>
<property name="maxActive" value="100"/>
<property name="initialSize" value="50"/>
<property name="maxWait" value="60000"/>
<property name="minIdle" value="5"/>
</bean> <!--mybatis-->
<bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">
<property name="mapperLocations" value="classpath:xmlmapper/*.xml"/>
<property name="dataSource" ref="shardingDataSource"/>
<!-- 配置Mybatis配置文件 -->
<property name="configLocation" value="classpath:/mybatis/mybatis-config.xml"/>
</bean>
<bean id="sqlSession" class="org.mybatis.spring.SqlSessionTemplate">
<constructor-arg index="0" ref="sqlSessionFactory"/>
</bean>
<!-- 注解Mapper scanner -->
<bean class="org.mybatis.spring.mapper.MapperScannerConfigurer">
<property name="basePackage" value="com.lc.sharding.mybatismapper"/>
<property name="sqlSessionTemplateBeanName" value="sqlSession"/>
</bean> <!-- 事务-->
<bean id="txManager"
class="org.springframework.jdbc.datasource.DataSourceTransactionManager">
<property name="dataSource" ref="shardingDataSource"/>
</bean>
<tx:annotation-driven transaction-manager="txManager"/>
<!--读写分离-->
<rdb:master-slave-data-source id="rbb_112" master-data-source-ref="database_112"
slave-data-sources-ref="database_slave_112"/>
<rdb:master-slave-data-source id="rbb_103" master-data-source-ref="database_103"
slave-data-sources-ref="database_slave_103"/>
<!--分库策略-->
<rdb:strategy id="databaseShardingStrategy" sharding-columns="business_id"
algorithm-expression="rbb_${business_id.longValue()}"/>
<!--分表策略-->
<rdb:strategy id="tableShardingStrategy" sharding-columns="user_id,order_id"
algorithm-class="com.lc.sharding.algorithm.MultipleKeysTableShardingAlgorithmImpl"/> <rdb:data-source id="shardingDataSource">
<rdb:sharding-rule data-sources="rbb_112,rbb_103">
<rdb:table-rules>
<rdb:table-rule logic-table="t_order" actual-tables="t_order_${0..3}" database-strategy="databaseShardingStrategy"
table-strategy="tableShardingStrategy"/>
</rdb:table-rules>
</rdb:sharding-rule>
<rdb:props>
<prop key="metrics.enable">true</prop>
<prop key="sql.show">true</prop>
</rdb:props>
</rdb:data-source>
</beans

基因法多列分片

public class MultipleKeysTableShardingAlgorithmImpl implements MultipleKeysTableShardingAlgorithm {
public Collection<String> doSharding(Collection<String> tableNames, Collection<ShardingValue<?>> shardingValues) {
List<String> shardingSuffix = new ArrayList<String>();
long partId = 0;
for (ShardingValue value : shardingValues) {
if (value.getColumnName().equals("user_id")) {
partId = ((Long) value.getValue()) % 4;
break;
} else if (value.getColumnName().equals("order_id")) {
partId = ((Long) value.getValue()) % 4;
break;
}
}
for (String name : tableNames) {
if (name.endsWith(partId + "")) {
shardingSuffix.add(name);
return shardingSuffix;
}
}
return shardingSuffix;
}
}

什么是基因法分片?
在订单数据oid生成时,order_id末端加入分片基因,让同一个user_id下的所有订单都含有相同基因,落在同一个表上。
资料:https://mp.weixin.qq.com/s/PCzRAZa9n4aJwHOX-kAhtA
根据user_id生成order_id:

public long bulidOrderId(long userId) {
//取用户id后4位
userId = userId & 15;
//先取60位唯一id
long uniqueId = this.nextId();
//唯一id左移4位、拼接userId后4位
return (uniqueId << 4) | userId;
}

this.nextId();//使用雪花算法生成60位分布式唯一id:1位符号位+41位时间戳+5位workId+5位datacenterId+6位序列号+4位基因片
小结
数据分片:
- 支持分库+分表;
- 可支持 = , BETWEEN,IN等多维度分片,也支持多分片键共用;
- 支持聚合,分组,排序,分页,关联等复杂查询语句;
- 分片灵活,支持多分片键共用,支持inline表达式;
- 基于Hint的强制路由;
- 支持分布式主键
读写分离:
- 支持一主多从的读写分离;
- 支持分库分表与读写分离共同使用
- 支持分布式生成全局主键。
柔性事务:
- 最大努力到达型事务
分布式治理:
- 支持配置中心,可动态修改
- 支持客户端熔断和失效转移
引用:http://shardingsphere.io/
sharing-jdbc实现读写分离及分库分表的更多相关文章
- spring boot sharding-jdbc实现分佈式读写分离和分库分表的实现
分布式读写分离和分库分表采用sharding-jdbc实现. sharding-jdbc是当当网推出的一款读写分离实现插件,其他的还有mycat,或者纯粹的Aop代码控制实现. 接下面用spring ...
- mycat+mysql集群:实现读写分离,分库分表
1.mycat文档:https://github.com/MyCATApache/Mycat-doc 官方网站:http://www.mycat.org.cn/ 2.mycat的优点: 配 ...
- Mycat数据库中间件对Mysql读写分离和分库分表配置
Mycat是一个开源的分布式数据库系统,不同于oracle和mysql,Mycat并没有存储引擎,但是Mycat实现了mysql协议,前段用户可以把它当做一个Proxy.其核心功能是分表分库,即将一个 ...
- MyCat读写分离、分库分表
系统开发中,数据库是非常重要的一个点.除了程序的本身的优化,如:SQL语句优化.代码优化,数据库的处理本身优化也是非常重要的.主从.热备.分表分库等都是系统发展迟早会遇到的技术问题问题.Mycat是一 ...
- Mycat实现读写分离、分库分表
系统开发中,数据库是非常重要的一个点.除了程序的本身的优化,如:SQL语句优化.代码优化,数据库的处理本身优化也是非常重要的.主从.热备.分表分库等都是系统发展迟早会遇到的技术问题问题.Mycat是一 ...
- Mysql之Mycat读写分离及分库分表
## 什么是mycat ```basic 1.一个彻底开源的,面向企业应用开发的大数据库集群 2.支持事务.ACID.可以替代MySQL的加强版数据库 3.一个可以视为MySQL集群的企业级数据库,用 ...
- Tbase读写分离与分库分表
一.读写分离 1.1 what 读写分离 读写分离,基本的原理是让主数据库处理事务性增.改.删操作(INSERT.UPDATE.DELETE),而从数据库处理SELECT查询操作.数据库复制被用来把事 ...
- mysql主从读写分离,分库分表
1.分表 当项目上线后,数据将会几何级的增长,当数据很多的时候,读取性能将会下降,更新表数据的时候也需要更新索引,所以我们需要分表,当数据量再大的时候就需要分库了. a.水平拆分:数据分成多个表 b. ...
- Ameba读写分离_mycat分库分表_redis缓存
1 数据库的读写分离 1.1 Amoeba实现读写分离 1.1.1 定义 Amoeba是一个以MySQL为底层数据存储,并对应用提供MySQL协议接口的proxy 优点: 配置读写分离时较为简单.配置 ...
随机推荐
- java框架之Spring(5)-注解驱动开发
准备 1.使用 maven 创建一个 java 项目,依赖如下: <dependency> <groupId>org.springframework</groupId&g ...
- Python 总结
python3.7下载地址 Python安装pip 1.首先检查linux有没有安装python-pip包,直接执行 yum install python-pip 2.没有python-pip包就执行 ...
- POJ 1986 Distance Queries(LCA Tarjan法)
Distance Queries [题目链接]Distance Queries [题目类型]LCA Tarjan法 &题意: 输入n和m,表示n个点m条边,下面m行是边的信息,两端点和权,后面 ...
- 前端学习历程--localstroge
一. localstorage的特性 1.需要ie8+ 2.浏览器中都会把localStorage的值类型限定为string类型,这个在对我们日常比较常见的JSON对象类型需要一些转换 3.local ...
- ASP.NET MVC案例教程(一) 准备
ASP.NET MVC案例教程(一) 前言 ASP.NET MVC作为微软官方的MVC解决方案,推出有一段时间了.可以说自动推出以来,一直广受关注.在经历了漫长的Preview之后,前几天终于推出了其 ...
- MongoExport后的负载均衡问题查询及解决:can't accept new chunks because there are still 2 deletes from previous migration
问题 前一阵有一个数据导出需求,按照各种数据库的使用方法,使用MongoExport方法导出数据,将数据导出到本地文件系统,在导出之后遇到此问题. 此问题和mongoexport的原理有关,我们知道数 ...
- 【 记忆网络 2 】 End-to-End Memory Network
继上一篇:Memory Network 1. 摘要 引入了一个神经网络,在一个可能很大的外部记忆上建立了一个recurrent attention模型. 该体系结构是记忆网络的一种形式,但与该工作中的 ...
- Python 同步IO/异步IO了解
说明: 对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间.所以说,当一个read操作发生时,它会经历两个阶段: 1. ...
- Python sqlalchemy orm 常用操作
增add # 创建表1 # 注:高级封装 import sqlalchemy # 调用链接数据库 from sqlalchemy import create_engine # 调用基类Base fro ...
- openwrt修改hosts
不同于标准linux主机,openwrt使用dnsmasq来管理dns和dhcp. 修改dnsmasq的配置文件 vi /etc/config/dhcp 在config dnsmasq这组下面添加 l ...