HashMap的put()与扩容
1. put()
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
HashMap.Node<K,V>[] tab;//指向存储数组的引用
HashMap.Node<K,V> p;
int n, i;//n是数组长度,i是插入值的存储下标
//判断存储数组是否为空,即数组是否初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//计算出存储下标,并将数组中下标与插入值位置相同的赋给p
if ((p = tab[i = (n - 1) & hash]) == null)
//如果p为null则表示插入值的插入位置没有值,则直接插入
tab[i] = newNode(hash, key, value, null);
//p!=null
else {
HashMap.Node<K,V> e;
K k;
//判断p的key是否与插入值的key相等,如果相等,则不需要插入
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//如果p是红黑树节点
else if (p instanceof HashMap.TreeNode)
//直接将值插入到红黑树中,在红黑树的插入中同样会进行key是否存在的判断,如果有则返回那个节点,否则返回null
e = ((HashMap.TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//p是链表节点
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//如果链表到头了,则将当前值插入到链表中
if ((e = p.next) == null) {
//插入
p.next = newNode(hash, key, value, null);
//判断链表的长度是否达到变成红黑树的长度
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//变成红黑树
treeifyBin(tab, hash);
//如果从这里break出去,e的值就为null
break;
}
//如果链表中存在key与插入值的key相同的节点,break
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//e!=null表示map中存在key与插入值的key相同,则更新值就行
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//对于HashMap来说是空函数,没有意义,LinkedHashMap中才有用
afterNodeAccess(e);
return oldValue;
}
}
//modCount是数组实际插入次数(根据代码来看,如果没有插入,只是更新的话是不会增加的)
++modCount;
//size是map中的元素个数(包括链表,红黑树以及数组上的元素),thresold是扩容阈值,如果达到这个值则扩容
if (++size > threshold)
resize();
//对于HashMap来说是空函数,没有意义,LinkedHashMap中才有用
afterNodeInsertion(evict);
return null;
}
2. 扩容
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) { // table已初始化
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 容量翻倍
}
else if (oldThr > 0) // table未初始化且已设置阈值,初始容量设为阈值
newCap = oldThr;
else { // table未初始化且未设置阈值
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) { // 1.table未初始化且已设置阈值 2.table已初始化但扩容后容量超过限制 3.table已初始化但原table容量小于默认值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr; // 更新threshold
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab; // 更新table
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null; // 从原table中删除正在移动的元素
if (e.next == null) // 普通节点
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode) // 红黑树节点
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // 链表节点
// 如果对于这里涉及到的低位、高位概念不懂,在我的另一篇博文ConcurrentHashMap源码解析(JDK8)中有介绍
Node<K,V> loHead = null, loTail = null; // 用于记录低位头结点与尾节点的变量
Node<K,V> hiHead = null, hiTail = null;// 用于记录高位头结点与尾节点的变量
Node<K,V> next;
do { // 遍历链表,遍历出来的两条链表保持原有的顺序
next = e.next;
if ((e.hash & oldCap) == 0) { // 表示该节点是低位节点
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else { // 表示该节点是高位节点
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 将两条链表插入到新table中
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
虽然JDK8没有了扩容时死循环的问题,但是依然是线程不安全的,在多线程环境中请使用ConcurrentHashMap。
HashMap的put()与扩容的更多相关文章
- jdk7和8中关于HashMap和concurrentHashMap的扩容过程总结,以及HashMap死循环
题外话:为什么要hashcode进行spread? 充分使用key.hashCode()的高16位信息,保证hash分布更分散, 扩容操作是新建2倍于原表大小的新表,并将原表结点拷贝一份放在新表中,对 ...
- 调试JDK源代码-一步一步看HashMap怎么Hash和扩容
调试JDK源代码-一步一步看HashMap怎么Hash和扩容 调试JDK源代码-ConcurrentHashMap实现原理 调试JDK源代码-HashSet实现原理 调试JDK源代码-调试JDK源代码 ...
- HashMap 什么时候进行扩容呢
HashMap扩容: 当HashMap中的元素越来越多的时候,碰撞的几率也就越来越高(因为数组的长度是固定的),所以为了提高查询的效率,就要对HashMap的数组进行扩容,数组扩容这个操作也会出现在A ...
- HashMap是如何进行扩容的?
HashMap通过resize()方法进行扩容. 源码解析: resize()函数有两种使用情况: 一.当table数组为null时初始化hash表. 二.当table数组不为null时进行扩容. 1 ...
- HashMap什么时候进行扩容?
Threshold:table数组元素个数size的大小超过threshold且且Node<K,V>[] table数组长度没有超过64时时table数组扩容.当hashmap中的元素个数 ...
- HashMap的扩容机制, ConcurrentHashMap和Hashtable主要区别
源代码查看,有三个常量, static final int DEFAULT_INITIAL_CAPACITY = 16; static final int MAXIMUM_CAPACITY = 1 & ...
- 浅谈JAVA中HashMap、ArrayList、StringBuilder等的扩容机制
JAVA中的部分需要扩容的内容总结如下:第一部分: HashMap<String, String> hmap=new HashMap<>(); HashSet<Strin ...
- JDK1.8 HashMap 扩容 对链表(长度小于默认的8)处理时重新定位的过程
关于HashMap的扩容过程,请参考源码或百度. 我想记录的是1.8 HashMap扩容是对链表中节点的Hash计算分析. 对术语先明确一下: hash计算指的确定节点在table[index]中的链 ...
- 深入理解HashMap(原理,查找,扩容)
面试的时候闻到了Hashmap的扩容机制,之前只看到了Hasmap的实现机制,补一下基础知识,讲的非常好 原文链接: http://www.iteye.com/topic/539465 Hashmap ...
随机推荐
- linux shell中如何批量添加一行内容到某些文件的末尾?
答:先使用find找出要指定的某些文件,然后使用xargs和sed工具将内容插入到这些文件的末尾 find . -name 'filename*' | xargs sed -i '$a\added-c ...
- linux系统(centos6)的目录结构
/bin:bin是Binary的缩写, 这个目录存放着最经常使用的命令. /boot:这里存放的是启动Linux时使用的一些核心文件,包括一些连接文件以及镜像文件. /dev :dev是Device( ...
- 数据分析入门——pandas之数据合并
主要分为:级联:pd.concat.pd.append 合并:pd.merge 一.numpy级联的回顾 详细参考numpy章节 https://www.cnblogs.com/jiangbei/p/ ...
- EasyNVR网页H5无插件播放摄像机视频功能二次开发之直播通道接口保活示例代码
背景需求 随着雪亮工程.明厨亮灶.手机看店.智慧幼儿园监控等行业开始将传统的安防摄像头进行互联网.微信直播,我们知道摄像头直播的春天了.将安防摄像头或NVR上的视频流转成互联网直播常用的RTMP.HT ...
- [LeetCode] 399. Evaluate Division 求除法表达式的值
Equations are given in the format A / B = k, where A and B are variables represented as strings, and ...
- [LeetCode] 403. Frog Jump 青蛙跳
A frog is crossing a river. The river is divided into x units and at each unit there may or may not ...
- 【Python学习之九】模块
环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 python3.6 一.模块的使用和安装模块和C语言中的头文件以及Ja ...
- QT源码分析:QTcpServer
最近在看有关IO复用方面的内容,自己也用标准c++库实现了select模型.iocp模型.poll模型.回过头来很想了解QT的socket是基于什么模型来实现的,所以看了QT关于TcpServer实现 ...
- 【转】Ubuntu环境搭建svn服务器
记录一次使用Ubuntu环境搭建svn服务器的详细步骤 一.查看是否已经安装svn 命令:svn如果显示以下信息,说明已安装 二.卸载已安装的svn 命令:sudo apt-get remove -- ...
- Centos下Redis集群的搭建实现读写分离
Centos下Redis一主多从架构搭建 搭建目标:因为自己笔记本电脑配置较低的原因,模拟两台机器之间搭建一主一从的架构,主节点Redis主要用来写数据,数据写入到主节点的Redis,然后从节点就可以 ...