1:几个重要的成员变量:

private static final int MAXIMUM_CAPACITY = 1 << 30; //map 容器的最大容量

private static final int DEFAULT_CAPACITY = 16; // map容器的默认大小

private static final float LOAD_FACTOR = 0.75f;  //加载因子

static final int TREEIFY_THRESHOLD = 8;  //由链表转为树状结构的链表长度

static final int UNTREEIFY_THRESHOLD = 6; //由树状结构转为链表

static final int MIN_TREEIFY_CAPACITY = 64; //数组长度最小为64才会转为红黑树

transient volatile Node<K,V>[] table;  //Node数组 用于存储元素

private transient volatile Node<K,V>[] nextTable; //当扩容的时候用于临时存储数组链表

private transient volatile long baseCount; //保存着哈希表所有节点的个数总和,相当于hash      Map  size

private transient volatile int sizeCtl;

下面对sizeCtl这个属性进行说明:

  • 0:默认值
  • -1:代表哈希表正在进行初始化
  • 大于0:相当于 HashMap 中的 threshold,表示阈值
  • 小于-1:代表有多个线程正在进行扩容

由这些成员变量可以看到内部的数据结构是基于 数组+单链表 的数据结构的,其中链表会转化为树状结构;

2:构造方法

// 初始化 sizeCtl 参数

public ConcurrentHashMap(int initialCapacity,

float loadFactor, int concurrencyLevel) {

if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)

throw new IllegalArgumentException();

if (initialCapacity < concurrencyLevel)   // Use at least as many bins

initialCapacity = concurrencyLevel;   // as estimated threads

long size = (long)(1.0 + (long)initialCapacity / loadFactor);  //

int cap = (size >= (long)MAXIMUM_CAPACITY) ?

MAXIMUM_CAPACITY : tableSizeFor((int)size);

this.sizeCtl = cap;

}

3:几个重要的方法介绍 put  get remove三个方法的介绍;

3.1:put 方法:

public V put(K key, V value) {  //key=name1   value=aa

return putVal(key, value, false);

}

接下来看看putVal这个方法的具体实现:分为4部分来解析:

第一部分:

final V putVal(K key, V value, boolean onlyIfAbsent) { //key=name1  value=aa onlyIfAbsent=false

if (key == null || value == null) throw new NullPointerException();

int hash = spread(key.hashCode());  //获取到key的hash值

int binCount = 0;  // 赋值 binCount=0

for (Node<K,V>[] tab = table;;) {  //进入循环方法体

Node<K,V> f; int n, i, fh;

if (tab == null || (n = tab.length) == 0)  //如果是添加第一个元素进入扩容方法

tab = initTable();

else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {

if (casTabAt(tab, i, null,

new Node<K,V>(hash, key, value, null)))

break;                   // no lock when adding to empty bin

}

//接下来看看扩容方法的实现:

private final Node<K,V>[] initTable() {

Node<K,V>[] tab; int sc;

while ((tab = table) == null || tab.length == 0) {

if ((sc = sizeCtl) < 0)  //当有其他线程在进行扩容 当前线程yield 放弃cpu使用

Thread.yield(); // lost initialization race; just spin

else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {//通过CAS将sc更新为 -1

try {

//这里假设是第一次put操作时进行扩容   sc=-1

if ((tab = table) == null || tab.length == 0) {

int n = (sc > 0) ? sc : DEFAULT_CAPACITY; //n=16

@SuppressWarnings("unchecked")

Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n]; //新建一个长度为16的Node数组

table = tab = nt;  // 将nt赋值给成员变量table

sc = n - (n >>> 2); // sc=12

}

} finally {

sizeCtl = sc;  // sizeCtl=-1  这里保证当其他线程进入initTable方法时线程会被 yield;

}

break;

}

}

return tab;

}

第二部分:

接下来看看put方法的第二部分操作:

else if ((fh = f.hash) == MOVED)  // MOVED=-1

tab = helpTransfer(tab, f);

简单说明下上面的方法:当 数组中的链表正在迁移中(如:扩容的情况下),则进入该方法;表明帮助迁移

第三部分:

这一部分虽然看起来代码量比较大,但是具体的操作和hashmap类似,主要的区别是

对这个链表进行加锁后处理,synchronized对象锁后进行相应的操作。tabAt保证获取到的对象是可见性的;其他的操作和hashmap中是一致的;就不做过多的说明了;

V oldVal = null;

synchronized (f) {

if (tabAt(tab, i) == f) {

if (fh >= 0) {

binCount = 1;

for (Node<K,V> e = f;; ++binCount) {

K ek;

if (e.hash == hash &&

((ek = e.key) == key ||

(ek != null && key.equals(ek)))) {

oldVal = e.val;

if (!onlyIfAbsent)

e.val = value;

break;

}

Node<K,V> pred = e;

if ((e = e.next) == null) {

pred.next = new Node<K,V>(hash, key,

value, null);

break;

}

}

}

else if (f instanceof TreeBin) {

Node<K,V> p;

binCount = 2;

if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,

value)) != null) {

oldVal = p.val;

if (!onlyIfAbsent)

p.val = value;

}

}

}

}

if (binCount != 0) {

if (binCount >= TREEIFY_THRESHOLD)

treeifyBin(tab, i);

if (oldVal != null)

return oldVal;

break;

}

}

接下来看看第四部分的代码:在put 方法中只有一句,如下所示:

addCount(1L, binCount); //这里的 binCount是指对操作那个Node链表的长度

每次添加Node元素到链表中binCount都会加1

接下来主要是分析addCount 里面的方法:1:更新baseCount  2:判断是否需要扩容

private final void addCount(long x, int check) {  //x=1   check=4

CounterCell[] as; long b, s;

if ((as = counterCells) != null ||

!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {//将baseCount 更新为b + x 即总量+1

CounterCell a; long v; int m;

boolean uncontended = true;

if (as == null || (m = as.length - 1) < 0 ||

(a = as[ThreadLocalRandom.getProbe() & m]) == null ||

!(uncontended =

U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {

fullAddCount(x, uncontended);

return;

}

if (check <= 1)

return;

s = sumCount();

}

if (check >= 0) {  // 链表长度大于0

Node<K,V>[] tab, nt; int n, sc;

// sizeCtl=-1  s=0  tab!=null  n为node[] 数组的长度

while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&

(n = tab.length) < MAXIMUM_CAPACITY) {

int rs = resizeStamp(n); //数组能扩容的长度

if (sc < 0) {

if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||

sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||

transferIndex <= 0)  // 参数校验

break;

if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))  //sc更新为1

transfer(tab, nt);

}

else if (U.compareAndSwapInt(this, SIZECTL, sc,

(rs << RESIZE_STAMP_SHIFT) + 2))

transfer(tab, null);  //进入扩容的方法

s = sumCount();

}

}

}

下面看看 transfer的方法进入扩容的操作:

这个方法比较复杂,分为3个部分进行分析:

//这里tab为16的Node数组  nextTab为 null

private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {

int n = tab.length, stride;

//计算单个线程允许处理的最少table桶首节点个数,不能小于 16

if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)

stride = MIN_TRANSFER_STRIDE; // subdivide range

//刚开始扩容  初始化nextTab

if (nextTab == null) {            // initiating

try {

@SuppressWarnings("unchecked")

Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1]; //创建长度为32的Node数组

nextTab = nt;  // nextTab为32的空数组

} catch (Throwable ex) {      // try to cope with OOME

sizeCtl = Integer.MAX_VALUE;

return;

}

nextTable = nextTab;  // nextTable变量为长度32的数组

transferIndex = n;  // transferIndex=32  指向数组的最后一个桶

}

int nextn = nextTab.length;

//定义ForwardingNode用于标记已经迁移完的桶

ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);

接下来看看扩容的第二部分:

boolean advance = true;

boolean finishing = false; // to ensure sweep before committing nextTab

// bound 表示当前线程需要处理桶节点区间的下限

for (int i = 0, bound = 0;;) {  //进入for循环,这里没有结束条件

Node<K,V> f; int fh;

while (advance) {

int nextIndex, nextBound;

if (--i >= bound || finishing)

advance = false;

else if ((nextIndex = transferIndex) <= 0) { // 这里 nextIndex=32 如果nextIndex<=0 则说明没有需要迁移的桶

i = -1;

advance = false;

}

//更新transferIndex

//为当前线程分配任务,处理桶区间为(nextBound, nextIndex)

else if (U.compareAndSwapInt

(this, TRANSFERINDEX, nextIndex,

nextBound = (nextIndex > stride ?

nextIndex - stride : 0))) {

bound = nextBound;

i = nextIndex - 1;

advance = false;

}

}

if (i < 0 || i >= n || i + n >= nextn) {

int sc;

if (finishing) {

nextTable = null;

table = nextTab;

sizeCtl = (n << 1) - (n >>> 1);

return;

}

if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {

if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)

return;

finishing = advance = true;

i = n; // recheck before commit

}

}

else if ((f = tabAt(tab, i)) == null)

advance = casTabAt(tab, i, null, fwd);

else if ((fh = f.hash) == MOVED)

advance = true; // already processed

ConcurrentHashMap 源码分析,基于JDK1.8的更多相关文章

  1. HashMap 源码分析 基于jdk1.8分析

    HashMap 源码分析  基于jdk1.8分析 1:数据结构: transient Node<K,V>[] table;  //这里维护了一个 Node的数组结构: 下面看看Node的数 ...

  2. CopyOnWriteArrayList 源码分析 基于jdk1.8

    CopyOnWriteArrayList  源码分析: 1:成员属性: final transient ReentrantLock lock = new ReentrantLock();  //内部是 ...

  3. HashMap源码分析-基于JDK1.8

    hashMap数据结构 类注释 HashMap的几个重要的字段 hash和tableSizeFor方法 HashMap的数据结构 由上图可知,HashMap的基本数据结构是数组和单向链表或红黑树. 以 ...

  4. 【Java并发集合】ConcurrentHashMap源码解析基于JDK1.8

    concurrentHashMap(基于jdk1.8) 类注释 所有的操作都是线程安全的,我们在使用时无需进行加锁. 多个线程同时进行put.remove等操作时并不会阻塞,可以同时进行,而HashT ...

  5. ArrayList 源码分析 基于jdk1.8:

    1:数据结构: transient Object[] elementData;  //说明内部维护的数据结构是一个Object[] 数组 成员属性: private static final int ...

  6. LinkedList的源码分析(基于jdk1.8)

    1.初始化 public LinkedList() { } 并未开辟任何类似于数组一样的存储空间,那么链表是如何存储元素的呢? 2.Node类型 存储到链表中的元素会被封装为一个Node类型的结点.并 ...

  7. ArrayList的源码分析(基于jdk1.8)

    1.初始化 transient Object[] elementData; //实际存储元素的数组 private static final Object[] DEFAULTCAPACITY_EMPT ...

  8. 并发-ConcurrentHashMap源码分析

    ConcurrentHashMap 参考: http://www.cnblogs.com/chengxiao/p/6842045.html https://my.oschina.net/hosee/b ...

  9. AtomicInteger源码分析——基于CAS的乐观锁实现

    AtomicInteger源码分析——基于CAS的乐观锁实现 1. 悲观锁与乐观锁 我们都知道,cpu是时分复用的,也就是把cpu的时间片,分配给不同的thread/process轮流执行,时间片与时 ...

  10. Hashtable、ConcurrentHashMap源码分析

    Hashtable.ConcurrentHashMap源码分析 为什么把这两个数据结构对比分析呢,相信大家都明白.首先二者都是线程安全的,但是二者保证线程安全的方式却是不同的.废话不多说了,从源码的角 ...

随机推荐

  1. FCC-学习笔记 Boo who

    FCC-学习笔记  Boo who 1>最近在学习和练习FCC的题目.这个真的比较的好,推荐给大家. 2>中文版的地址:https://www.freecodecamp.cn/;英文版的地 ...

  2. 搞NDK开发

    1.哪些场景下要用到NDK开发? 跨平台的库,如FFmpeg, skip,weex, 加固,防逆向 签名校验 图片压缩 音视频解码 OpenGL ES 高级特效 热修复 andfix 人脸识别 fac ...

  3. AI 图像识别的测试

    随着AI 的浪潮发展,AI 的应用场景越来越广泛,其中计算机视觉更是运用到我们生活中的方方面面.作为一个测试人员,需要紧跟上 AI 的步伐,快速从传统业务测试,转型到 AI 的测试上来.而人脸识别作为 ...

  4. MySQL的select(极客时间学习笔记)

    查询语句 首先, 准备数据, 地址是: https://github.com/cystanford/sql_heros_data, 除了id以外, 24个字段的含义如下: 查询 查询分为单列查询, 多 ...

  5. CMS收集器和G1收集器 他们的优缺点对比 G1只有并发标记才不会stop-the-world 其他都会停下来(阿里多次问到)

    CMS收集算法 参考:图解 CMS 垃圾回收机制原理,-阿里面试题 G1收集算法 参考:G1 垃圾收集器入门 首先要知道 Stop the world的含义(网易面试):不管选择哪种GC算法,stop ...

  6. [原创]python爬虫之BeautifulSoup,爬取网页上所有图片标题并存储到本地文件

    from bs4 import BeautifulSoup import requests import re import os r = requests.get("https://re. ...

  7. linux (06) redis安装

    redis安装 一.在linux安装redis,通过源码编译安装redis 1.下载源码包 wget http://download.redis.io/releases/redis-4.0.10.ta ...

  8. 201871020225-牟星源《面向对象程序设计(java)》第十六周学习总结

    201871020225-牟星源<面向对象程序设计(java)>第十六周学习总结 项目 内容 这个作业属于哪个课程 https://www.cnblogs.com/nwnu-daizh/ ...

  9. JDOJ 1790: 高精度A-B

    JDOJ 1790: 高精度A-B JDOJ传送门 洛谷 P2142 高精度减法 洛谷传送门 题目描述 高精度减法 输入格式 两个整数a,b(第二个可能比第一个大) 输出格式 结果(是负数要输出负号) ...

  10. 学习input

    认识input: 在网页中,我们经常都会遇到一些交互页面,比如登录.注册.评论等页面.你知道在html中用的是那些标签吗?今天我们要学习的就是其中最主要的一个标签,即<input>标签. ...