import org.apache.commons.lang3.RandomUtils;
import org.apache.commons.lang3.StringUtils; import java.util.*; /**
* 一致性hash
*/
public class ConsistentHashWithVirtualNode { /**
* 待添加入Hash环的服务器列表
*/ private static String[] SERVERS = {"192.168.1.2:6379", "192.168.1.3:6379"}; /**
* key表示服务器的hash值,value表示虚拟节点的名称
*/
private static SortedMap<Integer, String> HASH_CIRCLE = new TreeMap<Integer, String>();
/**
* 用于结果统计
*/
private static Map<String, Integer> result = new HashMap<String, Integer>();
/**
* 每个真实节点对应虚拟节点数
*/
private static Integer VIRTUAL_NODES_NUM = 150; /**
* 使用FNV1_32_HASH算法计算服务器的Hash值
*/
private static int getHash(String str) {
final int p = 16777619;
int hash = (int) 2166136261L;
for (int i = 0; i < str.length(); i++)
hash = (hash ^ str.charAt(i)) * p;
hash += hash << 13;
hash ^= hash >> 7;
hash += hash << 3;
hash ^= hash >> 17;
hash += hash << 5; // 如果值为负数则取其绝对值
if (hash < 0)
hash = Math.abs(hash);
return hash;
} static {
for (int i = 0; i < SERVERS.length; i++) {
for (Integer j = 0; j < VIRTUAL_NODES_NUM; j++) {
setServer(SERVERS[i] + "vn" + j);
}
}
} private static void setServer(String ip) {
setServer(ip, null);
} private static void setServer(String ip, Integer hash) {
hash = hash != null ? getHash(hash.toString()) : getHash(ip);
if (StringUtils.isBlank(HASH_CIRCLE.get(hash))) {
HASH_CIRCLE.put(hash, ip);
System.out.println("[" + ip + "]加入sortedMap中, 其Hash值为" + hash);
} else {
//解决hash碰撞
setServer(ip, hash);
}
} public static void main(String[] args) {
for (int i = 0; i < 50; i++) {
long nodes = RandomUtils.nextLong();
String server = getServer(nodes);
String realServer = server.split("vn")[0];
System.out.println("[" + nodes + "]的hash值为" + getHash("" + nodes) + ", 被路由到虚拟结点[" + server + "], 真实结点[" + realServer + "]");
result.put(realServer, (result.get(realServer) == null ? 0 : result.get(realServer)) + 1);
}
result.forEach((k, v) -> {
System.out.println("结点[" + k + "]上有" + v);
});
} public static String getServer(Object node) {
String ip = HASH_CIRCLE.get(HASH_CIRCLE.firstKey());
// 得到带路由的结点的Hash值
int hash = getHash(node.toString());
// 得到大于该Hash值的所有Map
SortedMap<Integer, String> subMap = HASH_CIRCLE.tailMap(hash); if (!subMap.isEmpty()) {
// 第一个Key就是顺时针过去离node最近的那个结点
Integer i = subMap.firstKey();
ip = subMap.get(i);
}
// 返回对应的服务器名称
return ip;
}
}

java实现hash一致性算法的更多相关文章

  1. 【java】安全加密MessageDigest的功能及用法【hash一致性算法】

    链接地址:https://blog.csdn.net/ma1kong/article/details/2662997 1.查看MessageDigest源码的注释说明 2.和hash一致性算法 什么关 ...

  2. 【hash】什么是hash,什么是哈希,什么是hash散列,什么是hash一致性算法【关于hash的详解】

    什么是hash,什么是哈希,什么是hash散列,什么是hash一致性算法

  3. hash一致性算法

    一致性hash算法是,1097麻省理工提出的分布式hashDHT实现算法,极倔internet的热点问题 平衡性 hash结果尽可能的分布到所有的缓存中去,缓冲空间利用率最高 单调性 保持已有的缓存能 ...

  4. 【Hash一致性算法】什么是Hash一致性算法

    目录 1. 一致性Hash算法简介 环形Hash空间 把数据通过一定的hash算法处理后映射到环上 将机器通过hash算法映射到环上 机器的删除与添加 平衡性 本文转载自博客 1. 一致性Hash算法 ...

  5. Hash一致性算法底层原理

    大纲 Hash取余算法 判定哈希算法好坏的四个定义 一致性Hash算法的两大设计 Hash取余算法 hash(Object.key)%N,hash值随Object.key.N的变化而变化. 如果有节点 ...

  6. 【java】hash一致性算法的实现区别【标题暂定】

    下面两个都是在生成sign签名时候用到的方式,有什么区别? 第一种: import org.apache.commons.codec.digest.DigestUtils; String sign = ...

  7. redis 集群引出hash一致性算法

    写的很棒的文章 https://blog.csdn.net/bntX2jSQfEHy7/article/details/79549368 这篇分析的更叼 https://www.jianshu.com ...

  8. nginx+php+memcache实现hash一致性memcache 集群

    我们工作中可能会遇到key-value数据库,如果我们面对的不止一台memcache服务器,而是很多台.那么现在就回出现一个问题: 当我们访问nginx服务器的时候,我们会判断memcache中是否有 ...

  9. 11.redis cluster的hash slot算法和一致性 hash 算法、普通hash算法的介绍

    分布式寻址算法 hash 算法(大量缓存重建) 一致性 hash 算法(自动缓存迁移)+ 虚拟节点(自动负载均衡) redis cluster 的 hash slot 算法 一.hash 算法 来了一 ...

随机推荐

  1. PostgreSQL内存使用增长观察

    磨砺技术珠矶,践行数据之道,追求卓越价值 回到上一级页面:PostgreSQL内部结构与源代码研究索引页    回到顶级页面:PostgreSQL索引页 [作者 高健@博客园  luckyjackga ...

  2. PostgreSQL PITR实验

    磨砺技术珠矶,践行数据之道,追求卓越价值 回到上一级页面: PostgreSQL基础知识与基本操作索引页     回到顶级页面:PostgreSQL索引页 看PostgreSQL中与PITR相关的设定 ...

  3. 【HEOI2016】序列

    题面 题解 很像最长不下降子序列对吧(废话) 设$up[i]$和$down[i]$分别表示$i$最大最小能取多少 注意到: $$ f[i] = max_j\left\{f[j]\right\} + 1 ...

  4. SSIS 数据流的错误输出

    数据流任务对错误的处理,和控制流不同,在数据流中,主要是对于错误行的处理,一般通过Error Output配置. 1,操作失败的类型:Error(Conversion) 和 Truncation. 2 ...

  5. Apache Flink学习笔记

    Apache Flink学习笔记 简介 大数据的计算引擎分为4代 第一代:Hadoop承载的MapReduce.它将计算分为两个阶段,分别为Map和Reduce.对于上层应用来说,就要想办法去拆分算法 ...

  6. Node JS World

    Node JS World Environment tested on Ubuntu Install nvm/node/npm/yarn nvm : node version manager node ...

  7. GoLang入门(一)

    1.Go语言的简述 Go语言可能大家对它并不是很了解,因为它相对其他语言来说实在是太年轻了,从创建到现在仅仅十年,09年,谷歌团队初设该想法,到实现也就是10年时间,对于go语言,它不是万能的,每种语 ...

  8. IOS测试-Fastmonkey

    目录: 一.背景 二.Fastmonkey介绍 三.Fastmonkey操作前准备 四.Fastmonkey工程配置过程 五.执行Monkey测试 六.FAQ Fastmonkey实践 一.背景: 因 ...

  9. 关于springcloud的一些问题总结.txt

    @Bean public CorsFilter corsFilter() { final UrlBasedCorsConfigurationSource source = new UrlBasedCo ...

  10. NIO - Buffer

    NIO —— Buffer源码分析 Buffer的类结构 底层的基础类是抽象类-Buffer,其中定义了四个变量:capacity(容量),limit(限制),position(位置),mark(标记 ...