package com.jn.baseservice.utils;

import com.jn.baseservice.common.Number;
import lombok.Getter;
import lombok.Setter;
import lombok.extern.log4j.Log4j2;
import org.apache.commons.lang3.StringUtils;
import org.springframework.context.ApplicationContext; @Log4j2
@Getter
@Setter
public class SnowFlake { // 起始的时间戳
private final static long START_TIMESTAMP = 1555894860007l;
// 每一部分占用的位数,就三个
private final static long SEQUENCE_BIT = 12;// 序列号占用的位数
private final static long MACHINE_BIT = 5;// 机器标识占用的位数
private final static long DATA_CENTER_BIT = 5;// 数据中心占用的位数
// 每一部分最大值
private final static long MAX_DATA_CENTER_NUM = 2 << DATA_CENTER_BIT - 1;
private final static long MAX_MACHINE_NUM = 2 << MACHINE_BIT - 1;
private final static long MAX_SEQUENCE = 2 << SEQUENCE_BIT - 1;
// 每一部分向左的位移
private final static long MACHINE_LEFT = SEQUENCE_BIT;
private final static long DATA_CENTER_LEFT = SEQUENCE_BIT + MACHINE_BIT;
private final static long TIMESTAMP_LEFT = DATA_CENTER_LEFT + DATA_CENTER_BIT;
private static long dataCenterId; // 数据中心 -- 分组按照 应用分组
private static long machineId; // 机器标识
private static long sequence = 0L; // 序列号
private static long lastTimestamp = -1L;// 上一次时间戳 public static boolean check; /**
* 构造器
*
* @param dataCenterId
* @param machineId
*/
private static void SnowFlake(long dataCenterId, long machineId) {
if (dataCenterId > MAX_DATA_CENTER_NUM || dataCenterId < 0) {
throw new IllegalArgumentException("dataCenterId can't be greater than MAX_DATA_CENTER_NUM or less than 0");
}
if (machineId > MAX_MACHINE_NUM || machineId < 0) {
throw new IllegalArgumentException("machineId can't be greater than MAX_MACHINE_NUM or less than 0");
}
SnowFlake.dataCenterId = dataCenterId;
SnowFlake.machineId = machineId;
} /**
* 初始化检查
*
* @param context
*/
public synchronized static void initOrCheck(ApplicationContext context) {
String applicationName = context.getId();
long applicationHashCode = Math.abs(applicationName.hashCode() % MAX_DATA_CENTER_NUM);
log.info("applicationName:{},dataCenterId:{}", applicationName, applicationHashCode);
long ipHashCode = getIpCode();
log.info("ipHashCode:{}", ipHashCode);
SnowFlake(applicationHashCode, ipHashCode);
check = true;
} /**
* 获取ip
*
* @return
*/
public static long getIpCode() {
String httpString = HttpUtil.getRequest("http://2019.ip138.com/ic.asp");
log.info("获取ip回执:" + httpString);
try {
if (httpString != null) {
httpString = httpString.substring(httpString.indexOf("[") + Number.ONE, httpString.indexOf("]"));
}
} catch (Exception e) {
log.error("处理ip异常:", e);
}
log.info("处理后ip:" + httpString);
long ipHashCode = StringUtils.isEmpty(httpString) ? System.currentTimeMillis() % MAX_MACHINE_NUM : Math.abs(httpString.hashCode() % MAX_MACHINE_NUM);
return ipHashCode;
} /**
* 实际获取id
*
* @return
*/
public synchronized static long nextId() {
long currStamp = System.currentTimeMillis();
if (currStamp < lastTimestamp) {
throw new RuntimeException("Clock moved backwards. Refusing to generate id");
} if (currStamp == lastTimestamp) {
//if条件里表示当前调用和上一次调用落在了相同毫秒内,只能通过第三部分,序列号自增来判断为唯一,所以+1.
sequence = (sequence + 1) & MAX_SEQUENCE;
//同一毫秒的序列数已经达到最大,只能等待下一个毫秒
if (sequence == 0L) {
currStamp = getNextMill();
}
} else {
//不同毫秒内,序列号置为0
//执行到这个分支的前提是currTimestamp > lastTimestamp,说明本次调用跟上次调用对比,已经不再同一个毫秒内了,这个时候序号可以重新回置0了。
sequence = 0L;
} lastTimestamp = currStamp;
//就是用相对毫秒数、机器ID和自增序号拼接
return (currStamp - START_TIMESTAMP) << TIMESTAMP_LEFT //时间戳部分
| dataCenterId << DATA_CENTER_LEFT //数据中心部分
| machineId << MACHINE_LEFT //机器标识部分
| sequence; //序列号部分
} /**
* 获取时间戳
*
* @return
*/
private static long getNextMill() {
long mill = System.currentTimeMillis();
while (mill <= lastTimestamp) {
mill = System.currentTimeMillis();
}
return mill;
} }
//获取雪花id
public static long getSnowFlakeId() {
if (!SnowFlake.check) {
SnowFlake.initOrCheck(SpringConfigTool.getContext());
}
return SnowFlake.nextId();
}

SnowFlakeId 分布式雪花id算法的更多相关文章

  1. 分布式SnowFlakeID(雪花ID)原理和改进优化

    最近在研究分布式框架的组件和整体设计思路.所有的问题,一旦涉及分布式难度就呈几何倍数的提升.包括最常见的ID生成也是,单机情况下,使用数据库自增ID.UUID都是简单易行的选择 但在分布式环境下,就需 ...

  2. SnowflakeId雪花ID算法,分布式自增ID应用

    概述 snowflake是Twitter开源的分布式ID生成算法,结果是一个Long型的ID.其核心思想是:使用41bit作为毫秒数,10bit作为机器的ID(5个bit是数据中心,5个bit的机器I ...

  3. ShardingSphere-proxy-5.0.0分布式雪花ID生成(三)

    一.目的 保证在分库分表中每条数据具有唯一性 二.修改配置文件config-sharding.yaml,并重启服务 # # Licensed to the Apache Software Founda ...

  4. 分布式唯一ID生成算法-雪花算法

    在我们的工作中,数据库某些表的字段会用到唯一的,趋势递增的订单编号,我们将介绍两种方法,一种是传统的采用随机数生成的方式,另外一种是采用当前比较流行的“分布式唯一ID生成算法-雪花算法”来实现. 一. ...

  5. 分布式唯一ID生成方案选型!详细解析雪花算法Snowflake

    分布式唯一ID 使用RocketMQ时,需要使用到分布式唯一ID 消息可能会发生重复,所以要在消费端做幂等性,为了达到业务的幂等性,生产者必须要有一个唯一ID, 需要满足以下条件: 同一业务场景要全局 ...

  6. 分布式唯一ID:雪花ID Snowflake .Net版

    先抄个雪花ID介绍,雪花算法: 雪花算法的原始版本是scala版,用于生成分布式ID(纯数字,时间顺序),订单编号等. 自增ID:对于数据敏感场景不宜使用,且不适合于分布式场景.GUID:采用无意义字 ...

  7. 分布式唯一id:snowflake算法思考

    匠心零度 转载请注明原创出处,谢谢! 缘起 为什么会突然谈到分布式唯一id呢?原因是最近在准备使用RocketMQ,看看官网介绍: 一句话,消息可能会重复,所以消费端需要做幂等.为什么消息会重复后续R ...

  8. Twitter分布式自增ID算法snowflake原理解析(Long类型)

    Twitter分布式自增ID算法snowflake,生成的是Long类型的id,一个Long类型占8个字节,每个字节占8比特,也就是说一个Long类型占64个比特(0和1). 那么一个Long类型的6 ...

  9. 分布式自增ID算法-Snowflake详解

    1.Snowflake简介 互联网快速发展的今天,分布式应用系统已经见怪不怪,在分布式系统中,我们需要各种各样的ID,既然是ID那么必然是要保证全局唯一,除此之外,不同当业务还需要不同的特性,比如像并 ...

随机推荐

  1. 06.yield

    Thread.yield()方法的作用:暂停当前正在执行的线程,并执行其他线程.(可能没有效果) yield()让当前正在运行的线程回到可运行状态,以允许具有相同优先级的其他线程获得运行的机会.因此, ...

  2. R2CNN论文思路记录

    Rotational region cnn 我们的目标是检测任意方向的场景文本,与RRPN类似,我们的网络也基于FasterR-CNN ,但我们采用不同的策略,而不是产生倾斜角度建议. 我们认为RPN ...

  3. java解决高并发问题

    对于我们开发的网站,如果网站的访问量非常大的话,那么我们就需要考虑相关的并发访问问题了.而并发问题是绝大部分的程序员头疼的问题, 但话又说回来了,既然逃避不掉,那我们就坦然面对吧~今天就让我们一起来研 ...

  4. java中的成员变量、类变量,成员方法、类方法 属性和方法区别

    成员变量:包括实例变量和类变量,用static修饰的是类变量,不用static修饰的是实例变量,所有类的成员变量可以通过this来引用. 类变量:静态域,静态字段,或叫静态变量,它属于该类所有实例共有 ...

  5. 【Linux】【Fabric】在ubuntu容器中安装Fabric环境

    前言 想在docker容器中安装docker部署fabric网络,有了以下尝试. 尝试了centos镜像.redhat镜像都没解决docker容器中安装运行docker的问题,最后ubuntu成功了! ...

  6. ajax图片上传,单个按钮实现选择图片和上传

    //图片原件上传功能 function gosubmit(file, key) { var formData = new FormData($("#inputForm")[0]); ...

  7. java并发编程笔记(一)——并发编程简介

    java并发编程笔记(一)--简介 线程不安全的类示例 public class CountExample1 { // 请求总数 public static int clientTotal = 500 ...

  8. 公司-浪潮:浪潮/inspur

    ylbtech-公司-浪潮:浪潮/inspur 浪潮集团有限公司,即浪潮集团,是中国本土综合实力强大的大型IT企业之一,中国领先的云计算.大数据服务商.浪潮集团旗下拥有浪潮信息.浪潮软件.浪潮国际.华 ...

  9. 85、使用TFLearn实现iris数据集的分类

    ''' Created on 2017年5月21日 @author: weizhen ''' #Tensorflow的另外一个高层封装TFLearn(集成在tf.contrib.learn里)对训练T ...

  10. SQL 测验题目(30道)

    1.SQL 指的是? 您的回答:Structured Query Language 2.哪个 SQL 语句用于从数据库中提取数据? 您的回答:SELECT 3.哪条 SQL 语句用于更新数据库中的数据 ...