分布式自增ID算法-Snowflake详解
1、Snowflake简介
互联网快速发展的今天,分布式应用系统已经见怪不怪,在分布式系统中,我们需要各种各样的ID,既然是ID那么必然是要保证全局唯一,除此之外,不同当业务还需要不同的特性,比如像并发巨大的业务要求ID生成效率高,吞吐大;比如某些银行类业务,需要按每日日期制定交易流水号;又比如我们希望用户的ID是随机的,无序的,纯数字的,且位数长度是小于10位的。等等,不同的业务场景需要的ID特性各不一样,于是,衍生了各种ID生成器,但大多数利用数据库控制ID的生成,性能受数据库并发能力限制,那么有没有一款不需要依赖任何中间件(如数据库,分布式缓存服务等)的ID生成器呢?本着取之于开源,用之于开源的原则,今天,特此介绍Twitter开源的一款分布式自增ID算法snowflake。
snowflake算法是一款本地生成的(ID生成过程不依赖任何中间件,无网络通信),保证ID全局唯一,并且ID总体有序递增,性能每秒生成300w+。
优点:
- 趋势递增:毫秒数在高位,序列号在低位
- 性能高无单点:本地计算不依赖数据库等第三方
- 使用灵活:三个组成部分的位数可按需求调整
缺点:
- 序列不连续
- 无法控制生成规则(比如序列起始等)
- 强依赖机器时钟,如果时钟回拨,会导致序列重复或者系统不可用
2、Snowflake算法原理
snowflake生产的ID二进制结构表示如下(每部分用-分开):
0 - 00000000 00000000 00000000 00000000 00000000 0 - 00000 - 00000 - 00000000 0000

第一位未使用,接下来的41位为毫秒级时间(41位的长度可以使用69年,从1970-01-01 08:00:00),然后是5位datacenterId(最大支持2^5=32个,二进制表示从00000-11111,也即是十进制0-31),和5位workerId(最大支持2^5=32个,原理同datacenterId),所以datacenterId*workerId最多支持部署1024个节点,最后12位是毫秒内的计数(12位的计数顺序号支持每个节点每毫秒产生2^12=4096个ID序号)。
所有位数加起来共64位,恰好是一个Long型(转换为字符串长度为18)。
单台机器实例,通过时间戳保证前41位是唯一的,分布式系统多台机器实例下,通过对每个机器实例分配不同的datacenterId和workerId避免中间的10位碰撞。最后12位每毫秒从0递增生产ID,再提一次:每毫秒最多生成4096个ID,每秒可达4096000个。理论上,只要CPU计算能力足够,单机每秒可生产400多万个,实测300w+,效率之高由此可见。
3、Snowflake源码(Java版本)
-
/**
-
* Twitter_Snowflake<br>
-
* SnowFlake的结构如下(每部分用-分开):<br>
-
* 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 -
-
* 000000000000 <br>
-
* 1位标识,由于long基本类型在Java中是带符号的,最高位是符号位,正数是0,负数是1,所以id一般是正数,最高位是0<br>
-
* 41位时间截(毫秒级),注意,41位时间截不是存储当前时间的时间截,而是存储时间截的差值(当前时间截 - 开始时间截)
-
* 得到的值),这里的的开始时间截,一般是我们的id生成器开始使用的时间,由我们程序来指定的(如下下面程序IdWorker类的startTime属性)。
-
* 41位的时间截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
-
* 10位的数据机器位,可以部署在1024个节点,包括5位datacenterId和5位workerId<br>
-
* 12位序列,毫秒内的计数,12位的计数顺序号支持每个节点每毫秒(同一机器,同一时间截)产生4096个ID序号<br>
-
* 加起来刚好64位,为一个Long型。<br>
-
* SnowFlake的优点是,整体上按照时间自增排序,并且整个分布式系统内不会产生ID碰撞(由数据中心ID和机器ID作区分),并且效率较高,经测试,
-
* SnowFlake每秒能够产生26万ID左右。
-
*/
-
public class SnowflakeIdWorker {
-
-
// ==============================Fields===========================================
-
/** 开始时间截 (2015-01-01) */
-
private final long twepoch = 1420041600000L;
-
-
/** 机器id所占的位数 */
-
private final long workerIdBits = 5L;
-
-
/** 数据标识id所占的位数 */
-
private final long datacenterIdBits = 5L;
-
-
/** 支持的最大机器id,结果是31 (这个移位算法可以很快的计算出几位二进制数所能表示的最大十进制数) */
-
private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
-
-
/** 支持的最大数据标识id,结果是31 */
-
private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
-
-
/** 序列在id中占的位数 */
-
private final long sequenceBits = 12L;
-
-
/** 机器ID向左移12位 */
-
private final long workerIdShift = sequenceBits;
-
-
/** 数据标识id向左移17位(12+5) */
-
private final long datacenterIdShift = sequenceBits + workerIdBits;
-
-
/** 时间截向左移22位(5+5+12) */
-
private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
-
-
/** 生成序列的掩码,这里为4095 (0b111111111111=0xfff=4095) */
-
private final long sequenceMask = -1L ^ (-1L << sequenceBits);
-
-
/** 工作机器ID(0~31) */
-
private long workerId;
-
-
/** 数据中心ID(0~31) */
-
private long datacenterId;
-
-
/** 毫秒内序列(0~4095) */
-
private long sequence = 0L;
-
-
/** 上次生成ID的时间截 */
-
private long lastTimestamp = -1L;
-
-
// ==============================Constructors=====================================
-
/**
-
* 构造函数
-
*
-
* @param workerId
-
* 工作ID (0~31)
-
* @param datacenterId
-
* 数据中心ID (0~31)
-
*/
-
public SnowflakeIdWorker(long workerId, long datacenterId) {
-
if (workerId > maxWorkerId || workerId < 0) {
-
throw new IllegalArgumentException(
-
String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
-
}
-
if (datacenterId > maxDatacenterId || datacenterId < 0) {
-
throw new IllegalArgumentException(
-
String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
-
}
-
this.workerId = workerId;
-
this.datacenterId = datacenterId;
-
}
-
-
// ==============================Methods==========================================
-
/**
-
* 获得下一个ID (该方法是线程安全的)
-
*
-
* @return SnowflakeId
-
*/
-
public synchronized long nextId() {
-
long timestamp = timeGen();
-
-
// 如果当前时间小于上一次ID生成的时间戳,说明系统时钟回退过这个时候应当抛出异常
-
if (timestamp < lastTimestamp) {
-
throw new RuntimeException(String.format(
-
"Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
-
}
-
-
// 如果是同一时间生成的,则进行毫秒内序列
-
if (lastTimestamp == timestamp) {
-
sequence = (sequence + 1) & sequenceMask;
-
// 毫秒内序列溢出
-
if (sequence == 0) {
-
// 阻塞到下一个毫秒,获得新的时间戳
-
timestamp = tilNextMillis(lastTimestamp);
-
}
-
}
-
// 时间戳改变,毫秒内序列重置
-
else {
-
sequence = 0L;
-
}
-
-
// 上次生成ID的时间截
-
lastTimestamp = timestamp;
-
-
// 移位并通过或运算拼到一起组成64位的ID
-
return ((timestamp - twepoch) << timestampLeftShift) //
-
| (datacenterId << datacenterIdShift) //
-
| (workerId << workerIdShift) //
-
| sequence;
-
}
-
-
/**
-
* 阻塞到下一个毫秒,直到获得新的时间戳
-
*
-
* @param lastTimestamp
-
* 上次生成ID的时间截
-
* @return 当前时间戳
-
*/
-
protected long tilNextMillis(long lastTimestamp) {
-
long timestamp = timeGen();
-
while (timestamp <= lastTimestamp) {
-
timestamp = timeGen();
-
}
-
return timestamp;
-
}
-
-
/**
-
* 返回以毫秒为单位的当前时间
-
*
-
* @return 当前时间(毫秒)
-
*/
-
protected long timeGen() {
-
return System.currentTimeMillis();
-
}
-
}
3.1、测试case
-
/*==============================Test start=========================*/
-
/**
-
* 多线程-测试多个生产者同时生产N个id, 全部id在全局范围内是否会重复
-
*
-
* @param dataCenterId
-
* @param workerId
-
* @param n
-
* @throws InterruptedException
-
*/
-
public static void testProductIdByMoreThread(int dataCenterId, int workerId, int n) throws InterruptedException {
-
List<Thread> tlist = new ArrayList<>();
-
Set<Long> setAll = new HashSet<>();
-
CountDownLatch cdLatch = new CountDownLatch(10);
-
long start = System.currentTimeMillis();
-
int threadNo = dataCenterId;
-
Map<String, SnowflakeIdWorker> idFactories = new HashMap<>();
-
for (int i = 0; i < 10; i++) {
-
// 用线程名称做map key.
-
idFactories.put("snowflake" + i, new SnowflakeIdWorker(workerId, threadNo++));
-
}
-
for (int i = 0; i < 10; i++) {
-
Thread temp = new Thread(new Runnable() {
-
@Override
-
public void run() {
-
Set<Long> setId = new HashSet<>();
-
SnowflakeIdWorker idWorker = idFactories.get(Thread.currentThread().getName());
-
for (int j = 0; j < n; j++) {
-
setId.add(idWorker.nextId());
-
}
-
synchronized (setAll) {
-
setAll.addAll(setId);
-
System.out
-
.println("{" + Thread.currentThread().getName() + "}生产了{" + n + "}个id,并成功加入到setAll中.");
-
}
-
cdLatch.countDown();
-
}
-
}, "snowflake" + i);
-
tlist.add(temp);
-
}
-
for (int j = 0; j < 10; j++) {
-
tlist.get(j).start();
-
}
-
cdLatch.await();
-
-
long end1 = System.currentTimeMillis() - start;
-
-
System.out.println("共耗时:{" + end1 + "}毫秒,预期应该生产{" + 10 * n + "}个id, 实际合并总计生成ID个数:{" + setAll.size() + "}");
-
}
-
-
/**
-
* 单线程-测试多个生产者同时生产N个id,验证id是否有重复
-
*
-
* @param dataCenterId
-
* @param workerId
-
* @param n
-
*/
-
public static void testProductId(int dataCenterId, int workerId, int n) {
-
SnowflakeIdWorker idWorker = new SnowflakeIdWorker(workerId, dataCenterId);
-
SnowflakeIdWorker idWorker2 = new SnowflakeIdWorker(workerId + 1, dataCenterId);
-
Set<Long> setOne = new HashSet<>();
-
Set<Long> setTow = new HashSet<>();
-
long start = System.currentTimeMillis();
-
for (int i = 0; i < n; i++) {
-
setOne.add(idWorker.nextId());// 加入set
-
}
-
long end1 = System.currentTimeMillis() - start;
-
System.out.println("第一批ID预计生成{" + n + "}个,实际生成{" + setOne.size() + "}个<<<<*>>>>共耗时:{" + end1 + "}");
-
-
for (int i = 0; i < n; i++) {
-
setTow.add(idWorker2.nextId());// 加入set
-
}
-
long end2 = System.currentTimeMillis() - start;
-
System.out.println("第二批ID预计生成{" + n + "}个,实际生成{" + setTow.size() + "}个<<<<*>>>>共耗时:{" + end2 + "}");
-
-
setOne.addAll(setTow);
-
System.out.println("合并总计生成ID个数:{" + setOne.size() + "}");
-
-
}
-
-
/**
-
* 测试每秒生成id个数
-
*/
-
public static void testPerSecondProductIdNums() {
-
SnowflakeIdWorker idWorker = new SnowflakeIdWorker(1, 2);
-
long start = System.currentTimeMillis();
-
int count = 0;
-
for (int i = 0; System.currentTimeMillis() - start < 1000; i++, count = i) {
-
/** 测试方法一: 此用法纯粹的生产ID,每秒生产ID个数为300w+ */
-
idWorker.nextId();
-
/**
-
* 测试方法二: 在log中打印,同时获取ID,此用法生产ID的能力受限于log.error()的吞吐能力. 每秒徘徊在10万左右.
-
*/
-
System.out.println("{" + idWorker.nextId() + "}");
-
}
-
long end = System.currentTimeMillis() - start;
-
System.out.println(end);
-
System.out.println(count);
-
}
-
-
public static void main(String[] args) {
-
/**
-
* case1: 测试每秒生产id个数? 结论: 每秒生产id个数300w+
-
*/
-
// testPerSecondProductIdNums();
-
-
/**
-
* case2: 单线程-测试多个生产者同时生产N个id,验证id是否有重复? 结论: 验证通过,没有重复.
-
*/
-
// testProductId(1, 2, 10000);// 验证通过!
-
// testProductId(1, 2, 20000);// 验证通过!
-
-
/**
-
* case3: 多线程-测试多个生产者同时生产N个id, 全部id在全局范围内是否会重复? 结论: 验证通过,没有重复.
-
*/
-
// 单机测试此场景,性能损失至少折半!
-
/*try {
-
testProductIdByMoreThread(1, 2, 100000);
-
} catch (InterruptedException e) {
-
e.printStackTrace();
-
}*/
-
}
-
/*==============================Test end=========================*/
参考:
https://github.com/twitter/
原文地址:https://blog.csdn.net/chen_changying/article/details/79454901
分布式自增ID算法-Snowflake详解的更多相关文章
- 详解Twitter开源分布式自增ID算法snowflake(附演算验证过程)
详解Twitter开源分布式自增ID算法snowflake,附演算验证过程 2017年01月22日 14:44:40 url: http://blog.csdn.net/li396864285/art ...
- Twitter分布式自增ID算法snowflake原理解析
以JAVA为例 Twitter分布式自增ID算法snowflake,生成的是Long类型的id,一个Long类型占8个字节,每个字节占8比特,也就是说一个Long类型占64个比特(0和1). 那么一个 ...
- Twitter分布式自增ID算法snowflake原理解析(Long类型)
Twitter分布式自增ID算法snowflake,生成的是Long类型的id,一个Long类型占8个字节,每个字节占8比特,也就是说一个Long类型占64个比特(0和1). 那么一个Long类型的6 ...
- 基于.NET Standard的分布式自增ID算法--Snowflake
概述 本篇文章主要讲述分布式ID生成算法中最出名的Snowflake算法.搞.NET开发的,数据库主键最常见的就是int类型的自增主键和GUID类型的uniqueidentifier. 那么为何还要引 ...
- Twitter的分布式自增ID算法snowflake
snowflake 分布式场景下获取自增id git:https://github.com/twitter/snowflake 解读: http://www.cnblogs.com/relucent/ ...
- Twitter的分布式自增ID算法snowflake (Java版)
概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的. 有些时候我们希望能使用一种 ...
- 分布式自增ID算法snowflake (Java版)
概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的. 有些时候我们希望能使用一种 ...
- 分布式自增ID算法snowflake
分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的,作为索引非常不好,严重影响性能. ...
- Twitter的分布式自增ID算法snowflake(雪花算法) - C#版
概述 分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的.有些时候我们希望能使用一种简 ...
随机推荐
- Firewalld--01 防火墙安全、基本指令、区域配置
目录 Firewalld防火墙安全.基本指令.区域配置 1. 防火墙安全基本概述 2. 防火墙使用区域管理 3. 防火墙基本指令参数 4.防火墙区域配置策略 Firewalld防火墙安全.基本指令.区 ...
- python基础--2 字符串
整型 int python3里,不管数字多大都是int类型 python2里面有长整型long 将整型字符串转换为数字 # a='123' # print(type(a),a) # b=int(a) ...
- 将postgresql中的数据实时同步到kafka中
参考地址:https://blog.csdn.net/weixin_33985507/article/details/92460419 参考地址:https://mp.weixin.qq.com/s/ ...
- [php代码审计] 哈希长度拓展攻击
已知: 1. salt的长度. 2. message==“adminadmin”. 3. MD5(salt+message)的值. 求: MD5(salt+message+填充数据+任意字符串)的值. ...
- 锁、volatile、CAS的比较
一.锁 锁是一种悲观的机制.为多线程提供了互斥的访问机制.多个线程同时竞争锁时,没获得锁的线程将会被挂起(智能的JVM会根据之前获取锁操作中对锁的持有时间长短来判断是使线程挂起还是自旋) 锁的劣势:1 ...
- 37行代码构建无状态组件通信工具-让恼人的Vuex和Redux滚蛋吧!
状态管理的现状 很多前端开发者认为,Vuex和Redux是用来解决组件间状态通信问题的,所以大部分人仅仅是用于达到状态共享的目的.但是通常Redux是用于解决工程性问题的,用于分离业务与视图,让结构更 ...
- css图像拼合技术(精灵图)
CSS图像拼合技术 1.图像拼合 图像拼合技术就是单个图像的集合. 有很多图片的网页可能会需要很多时间来加载和生成多个服务器的请求. 使用图像拼合会降低服务器的请求数量,并节省带宽. 图像拼合实例 有 ...
- 简单的使用redis
心不慌手不抖我们跟着大哥走 https://blog.csdn.net/zhangcongyi420/article/details/82686702
- Dump文件的生成
一.Windows系统的任务管理器里抓dump 启动任务管理器,选中某个进程,右键,弹出菜单"创建转储文件" 注意事项: 当你在64位Windows系统上抓32位进程的dmup文件 ...
- ModelViewSet的用法