way-to-architect
  • 前言
  • Java
    • Java关键字
      • Java中四种修饰符的限制范围
      • static和final
    • 容器
      • 容器概述
        • 容器:综述
        • Iterator原理及实现
        • fast-fail机制
        • 比较器Comparator
        • Collections工具类
      • List
        • List综述
        • ArrayList原理分析
        • ArrayList在循环过程中删除元素的问题
        • 常用的小技巧
        • CopyOnWrite
      • Set
        • Set综述
        • HashSet
        • LinkedHashSet
        • TreeSet
      • Queue
        • Queue综述
        • ArrayBlockingQueue实现原理
        • LinkedBlockingQueue实现原理
        • 高性能无锁队列Disruptor
      • Map
        • Map综述
        • HashMap
          • HashMap实现原理
          • HashMap中的位运算
          • HashMap其他问题
        • LinkedHashMap
        • TreeMap
        • ConcurrentHashMap
          • ConcurrentHashMap实现原理JDK1.7
          • ConcurrentHashMap实现原理JDK1.8
        • ConcurrentSkipListMap
        • Map中key和value的null的问题
    • 线程
      • 线程
        • 创建线程
        • 线程状态及切换
        • 线程中断的理解
        • 几种方法的解释
        • 用户线程与守护线程
        • 线程组ThreadGroup
      • 线程池
        • 线程池工作原理及创建
        • Executor
        • 如何确保同一属性的任务被同一线程执行
      • ThreadLocal
        • ThreadLocal原理
        • ThreadLocal之父子线程传值
        • InheritableThreadLocal
      • 同步与锁
        • 线程安全与锁优化
        • synchronize关键字
        • Lock
          • 队列同步器
            • 同步状态的获取与释放
            • 使用方式
            • 示例:Mutex
            • 示例:TwinsLock
          • 重入锁和读写锁
          • LockSupport
          • Condition
          • 并发工具类
        • CAS
          • CAS的理解
          • Java中原子操作类
        • 3个经典同步问题
      • fork/join的理解
    • I/O
      • I/O概述
        • 磁盘I/O与网络I/O
        • 主要接口
        • 输入流和输出流的使用示例
        • InputStream的重复读
        • BufferdxxxxStream
        • Serailizable
        • File常用方法
        • Files和Path
        • RandomAccessFile
        • 通过零拷贝实现有效数据传输
        • 正确地处理文件
      • NIO基础
      • NIO2
      • Netty
        • Java I/O的演进之路
        • 为什么是Netty
        • 更多
      • I/O调优
    • 异常
      • 异常体系及为什么要有这种异常设计
      • 多catch的执行情况
      • try catch finally 与reture
      • 异常处理的误区
      • Preconditions:方法入参校验工具
    • 枚举
      • 常见用法
      • 枚举类在序列化中的问题
    • 注解
      • 概述
      • Spring中的组合注解的条件注解
      • 常用注解
        • JSR-330标准注解
    • 反射
      • 概述
      • 内部类的反射
      • 反射中需要注意的地方
    • 流程控制
      • switch case without break
      • Java: for(;;) vs. while(true)
    • JVM
      • JVM内存结构
      • Java内存模型
      • 垃圾收集器和内存分配策略
      • 四种引用类型区别及何时回收
      • 类文件结构
      • 类初始化顺序
      • 类加载机制
      • 虚拟机执行引擎
      • 逃逸分析
      • JVM常用配置
      • GC日志分析
      • Java8 JVM 参数解读
      • 垃圾收集器和内存分配策略
    • 面向对象
      • Object类中的方法
      • Class类中的方法
      • 值传递还是引用传递?
      • 接口和抽象类的区别
      • 深拷贝和浅拷贝
      • Integer.parseInt()与Interger.valueof()
      • hashCode()与equal()
      • String
        • String池化及intern()方法的作用
        • 关于字符串
    • 序列化
      • Java序列化的方式有哪些?
    • 新特性
      • 流 Stream
        • Stream是什么
        • Stream API详解
        • Stream进阶
        • 流编程
        • 其他事项
      • lambda表达式
      • 默认方法(Default Methods)
      • @FunctionalInterface注解
    • SPI
      • 理解SPI
    • 字节码
      • javaagent
      • 字节码操纵
      • 如何查看类编译后的字节码指令
      • 字节码指令有哪些
  • Python
    • 异常处理
  • Go
  • 数据结构与算法
    • 数据结构
      • 概述
        • 线性表
        • 栈
        • 队列
        • 串
        • 树
        • 图
      • Java的一些实现
      • 红黑树
      • 双缓冲队列
      • 跳表SkipList
    • 算法
      • 概述
      • 常见算法
        • 基本排序
        • 高级排序
        • 动态规划
  • 框架或工具
    • Spring
      • Spring基础
        • Spring整体架构
        • 什么是IoC
        • Ioc容器的基本实现
        • Spring的MainClass
          • Spring的BeanFactory
          • Spring的Register
          • Spring的Resource和ResourceLoader
          • Spring的PropertySource
          • Spring的PropertyResolver
          • Spring的PropertyEditor
          • Spring的Convert
          • Spring的BeanDefinition
          • Spring的BeanDefinitionReader
          • Spring的BeanDefiniton其他Reader
          • Spring的BeanDefinition其他Reader2
          • Spring的Aware
          • Spring的BeanFctoryPostProcessor
          • Spring的BeanPostProcessor
          • Spring的Listener
        • Xml格式的应用启动
          • Xml格式的应用启动2
          • Xml格式的应用启动3
          • Xml格式的应用启动4
          • Xml格式的应用启动5
          • Xml格式的应用启动6
          • Xml格式的应用启动7
        • Spring中的设计模式
        • 什么是AOP
        • Spring中AOP的实现
      • Spring应用
        • Spring的事务控制
        • @Transactional注解在什么情况下会失效
        • 如何在数据库事务提交成功后进行异步操作
        • Spring中定时任务的原理
    • SpringMVC
      • Controller是如何将参数和前端传来的数据一一对应的
      • 请求处理流程
    • Zookeeper
      • Zookeeper是什么
      • Zookeeper能干啥
    • Shiro
    • druid
    • Netty
    • Consul
      • Consul是什么
    • etcd
    • confd
    • Akka
      • Actor模型是什么
  • 数据库
    • 基本概念
    • MySQL
      • 基本配置
      • MySQL数据类型
      • MySQL存储引擎
      • MySQL事务
        • MySQL事务概念
      • MySQL索引
        • MySQL中的索引类型
        • B-Tree/B+Tree概述
        • 为什么使用B+Tree
        • MySQL中的B+Tree索引
        • MySQL高性能索引策略
      • MySQL查询
        • MySQL查询过程
        • MySQL查询性能优化
        • 使用EXPLAIN
      • MySQL锁
        • MySQL中锁概述
        • InnoDB的并发控制
        • MySQL乐观锁
      • MySQL分库分表
        • 分库/分表
        • 跨库JOIN
        • 跨库分页
        • 分库分表后的平滑扩容
        • 分区表
        • 分布式ID生成方法
      • MySQL实战
        • 在线表结构变更
        • MySQL优化规则
        • MySQL问题排查
        • 常见查询场景
    • Redis
    • Hbase
    • OpenTSDB
    • rrd
    • MongoDB
    • 连接池
  • 系统设计
    • 一致性Hash算法
    • 限流
      • 限流是什么
      • 限流算法
      • 应用内限流
      • 分布式限流
      • 接入层限流
        • ngx_http_limit_conn_module
        • ngx_http_limit_req_module
        • lua_resty_limit-tarffic
      • 节流
    • 降级
      • 降级详解
      • 人工降级开关的实现
      • 自动降级的实现:Hystrix
    • 负载均衡
      • 概述
      • 互联网架构下的负载均衡
      • Nginx负载均衡(七层)
      • Nginx负载均衡(四层)
      • Nginx动态配置
    • 超时与重试机制
      • 什么地方要超时与重试
      • 代理层超时与重试
      • Web容器超时
      • 中间件客户端超时与重试
      • 数据库超时
      • NoSQL客户端超时设置
      • 业务超时
      • 前端请求超时
    • 网关
    • CAP
      • 什么是CAP
      • CAP理解
    • 生产者-消费者模型
      • 使用notify/wait方式
      • 使用await/signal实现
      • 使用阻塞队列实现
      • 使用信号量实现
      • 使用管道流实现
      • 无锁队列Disruptor
      • 双缓冲队列
    • 缓存
      • 缓存概述
      • 数据库缓存
      • 应用缓存
      • 前端缓存
      • 本地缓存
    • 秒杀
    • LRU
  • 版本控制
    • Git
      • Git常用命令
      • 场景命令
    • Svn
  • 计算机操作系统
    • Linux
      • Linux中重要概念
      • 常用命令
      • 查看日志
      • 权限管理
      • 登录或传输
      • 防火墙
      • 配置ssh免密
      • 进程
      • 防火墙
    • Mac
    • 计算机基础
      • 进制
      • Java中的位运算
      • 计算机存储系统结构
  • 网络
    • TCP三次握手和四次挥手
    • 网络术语
      • 网关、路由器、交换机、IP等
      • VLAN
      • LAN
  • 设计模式
    • 设计模式概述
    • 创建型
      • 单例模式
      • 工厂模式
      • 建造者模式
      • 原型模式
      • 享元模式
    • 行为型
      • 观察者模式
      • 策略模式
      • 模板模式
      • 责任链模式
      • 命令模式
      • 外观模式
      • 迭代器模式
      • 中介者模式
        • 中介模式续
      • 状态模式
        • 状态模式实例
        • 状态模式思考
      • 访问者模式
        • 访问者实例1
        • 访问者模式续
    • 结构型
      • 组合模式
        • 组合模式续
      • 装饰模式
        • 装饰模式续
      • 代理模式
      • 备忘录模式
      • 桥接模式
        • 桥接模式实例一
  • 构建工具
    • Maven
      • 常用命令
      • Maven生命周期
      • Maven中的变量和属性
      • 不同环境的如何配置不同的变量
      • 常用插件及配置
      • 其他问题
      • dependencies与dependencyManagement的区别
    • Gradle
  • 大数据
    • Hadoop
    • Storm
    • Spark
  • 服务器
    • Tomcat
      • server.xml配置详解
      • 线程池和连接数配置
      • Maven远程部署
      • 一些小技巧
      • Tomcat类加载机制分析
      • Tomcat的日志
      • Tomcat架构
        • 概述
        • Server 的启动流程
        • 请求处理流程
    • Nginx
      • 常用命令
      • 基本配置
      • Lua
    • Tengine
  • 中间件
    • 任务调度
      • 为什么需要任务调度
    • 消息队列
      • 为什么需要消息队列
      • 消息队列关键点
      • 消息中间件需要解决的问题
      • 不同消息队列产品对比
      • RocketMQ
        • 快速入门
        • 整体架构
        • 部署方式
          • Broker部署方案
        • 客户端使用
          • 客户端使用指南
          • 快速开始
          • 简单示例
          • 有序消息示例
          • 广播消息示例
          • 定时消息示例
          • 批量消息示例
          • 过滤消息示例
          • 日志输出配置示例
        • 关键点实现
          • 顺序消息的实现
        • 最佳实践
          • Broker的最佳实践
          • 生产者最佳实践
            • 生产者最佳实践续
          • 消费者最佳实践
            • 消费者最佳实践续
          • 名称服务最佳实践
          • JVM/kernel配置的最佳实践
          • 新特性 Filter Server
          • 其他事项
      • RabbitMQ
      • Kafka
    • 分布式事务
      • 什么是分布式事务
      • 解决方案
    • 服务治理
      • RPC概念
      • RPC最简实现
      • 为什么需要服务治理
      • Dubbo
        • Dubbo整体架构
      • Java RMI
    • 分布式锁
      • 如何设计分布式锁
        • 基于zookeeper
        • 基于Redis
    • 注册中心
      • 注册中心的职责
      • 不同注册中心的比较
    • 配置中心
      • 概述
      • 配置中心的实现与选型
  • Web开发
    • Http请求类型及区别
    • 常见的content-type
    • 如何处理跨域
    • Restful最佳实践
    • HTTP状态码
    • Http下载原理
  • 测试
    • 压测:apache bench
    • 压测:Jmeter
Powered by GitBook
On this page
  • 键值对的载体:Node<K,V>和TreeNode<K,V>
  • 主要成员变量
  • put
  • resize
  • get
  1. Java
  2. 容器
  3. Map
  4. HashMap

HashMap实现原理

PreviousHashMapNextHashMap中的位运算

Last updated 6 years ago

HashMap是Map接口基于哈希表(hash table)的实现。

在HashMap内部,哈希表的实现是通过数组+单链表/红黑树(JDK1.8)来完成(即采用拉链法解决哈希冲突问题)的,示意图如下:

大体的思路:HashMap的内部维护一个数组(Node<K,V>[] table),该数组的每一个位置存放一个bucket(桶或哈希桶),当添加键值对的时候,首先确定要将该键值对放在哪个桶里(table数组的哪个位置),该桶的结构一开始是单链表,但是如果在某一个桶中放入了过多的键值对,那么这个桶的结构就会由单链表转换为红黑树。

这里说的table数组每个位置存放一个bucket的意思是:实际上table数组的每个位置真正存放的就是一个结点Node,只不过该位置处要存放不止一个Node,这些Node就会形成链表或者红黑树,桶则是指链表或红黑树。我觉得不必过于纠结这些概念,只要明白桶就是装东西的,水桶装水,HashMap里的桶装键值对。

这里的桶只是抽象上的概念,简单来讲,HashMap首先维护一个键值对数组,不在这个数组里的键值对通过与数组中某个位置的键值对发生某种关系,形成单链表或者红黑树结构。HashMap的一切操作都在维护着这种关系,以便达到高效的查找和增删效率。

在源码的注释中,经常出现的bin就是指的键值对的封装体:TreeNode<K,V>或者Node<K,V>。 在源码的注释中,经常出现的bucket是指桶(或叫做哈希桶):盛放了一组结点的单链表或红黑树。

下图虚线内的Node就是table数组实际存放的键值对:

键值对的载体:Node<K,V>和TreeNode<K,V>

对于HashMap内部,任意一个键值对都是以Node<K,V>的形式封装的。

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;//哈希值
    final K key;//键
    V value;//值
    Node<K,V> next;//下一个结点
    ...
}

可以看到,Node中包含了属性Node<K,V> next,也就是下一个结点。HashMap中的单链表结构就是通过这种方式实现的。

TreeNode<K,V>是Node<K,V>的子类(扩展类),实现了红黑树的性质

static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
    TreeNode<K,V> parent;  // red-black tree links
    TreeNode<K,V> left;
    TreeNode<K,V> right;
    TreeNode<K,V> prev;    // needed to unlink next upon deletion
    boolean red;
    ...
}

//下面这段是LinkedHashMap的代码,LinkedHashMap是HashMap的子类。
static class Entry<K,V> extends HashMap.Node<K,V> {
        Entry<K,V> before, after;
        Entry(int hash, K key, V value, Node<K,V> next) {
            super(hash, key, value, next);
        }
}

主要成员变量

//默认初始容量(即HashMap可以存放的键值对的个数):16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;

//HashMap所能存放键值对的最大数量。
static final int MAXIMUM_CAPACITY = 1 << 30;

//如果构造方法中未指明装载因子,则使用此默认值
static final float DEFAULT_LOAD_FACTOR = 0.75f;

//当桶里的Node(可以理解为键值对)数大于该值时,该桶的结构就会由链表转变为红黑树。
//该值必须大于2,且最小为8,以此保证可以在桶内键值对减小时桶结构由红黑树退化为链表。
static final int TREEIFY_THRESHOLD = 8;

//当桶内的Node(可以理解为键值对)数量小于该值时,桶结构就会由红黑树转变为链表。
//该值最大为6 。
static final int UNTREEIFY_THRESHOLD = 6;

/**
 * The smallest table capacity for which bins may be treeified.
 * (Otherwise the table is resized if too many nodes in a bin.)
 * Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
 * between resizing and treeification thresholds.
 */
//桶结构开始树化时,数组的最小长度,否则如果很多Node在一个桶中,数组就会resized,
//将元素更均匀地分布在各个位置
static final int MIN_TREEIFY_CAPACITY = 64;


//Node数组,这个就是HashMap中数据结构为数组+链表+红黑树中的数组
//数组的长度永远是2的倍数
transient Node<K,V>[] table;

/**
 * Holds cached entrySet(). Note that AbstractMap fields are used
 * for keySet() and values().
 * 待研究
 */
transient Set<Map.Entry<K,V>> entrySet;

//HashMap中键值对的个数
transient int size;

//结构修改次数(结构修改是指改变了HashMap中键值对的个数或者内部的重哈希。
//为了fail-fast机制用,抛出ConcurrentModificationException)
transient int modCount;

/**
 * The next size value at which to resize (capacity * load factor).
 *
 * @serial
 */
// (The javadoc description is true upon serialization.
// Additionally, if the table array has not been allocated, this
// field holds the initial array capacity, or zero signifying
// DEFAULT_INITIAL_CAPACITY.)
// 发生resize的阈值(键值对个数超过该值,HashMap内部就会进行resize操作)
// 如果数组还没有分配,该值为数组的初始容量
int threshold;

//哈希表的装载因子:也就是装满程度
final float loadFactor;

put

//存放键值对,通过调用putVal方法完成
//如果之前通过该key放过value,该方法会用value替换之前的value
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

putVal()的大体思路:先确定该键值对应该存放在哪个桶中,即确定放在table[i]中的i值;如果该桶为空,即table的i位置处还没有存放键值对,则直接将键值对放在table数组中;如果该桶不为空,并且桶结构为红黑树,则将键值对插入到该红黑树中;如果该桶不为空,并且桶结构为链表,则将该键值对插入到链表尾端(插入后,如果链表长度大于8,则将该链表结构转换为红黑树结构)。最后,检查是否需要扩容。

/**
 * 该方法是Map接口中put相关方法的真正实现。
 * @param hash 键key的哈希值
 * @param key 键值对中的键
 * @param value 键值对中的值
 * @param onlyIfAbsent 见名只意:如果为true,那么就不会替换掉旧value
 *         (如果之前通过该key放过value)。
 * @param evict if false, the table is in creation mode.
 * @return 该键对应的之前的值(如果之前该键存放过值,没有的话返回null)
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab;
    Node<K,V> p;
    int n, i;
    //如果HashMap的数组table未初始化或者table的长度为0,则对table进行初始化
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;

    //先用(n - 1) & hash 确定该键值对应该存放在哪个桶中
    //(table的哪个位置处:table[i]),
    //如果桶为空,则新生成结点(Node,非TreeNode)放入桶中
    //(此时,由于桶中只有一个结点,这个结点是放在数组table中)
    if ((p = tab[i = (n - 1) & hash]) == null)//这里,p=table的i位置处的桶中的第一个元素
        tab[i] = newNode(hash, key, value, null);
    else {
        //如果该键值对要放的位置已经存在非空桶,也就是要放在桶里的某个位置:
        //有两种情况:该桶结构为链表或该桶结构为红黑树
        //如果为链表,则又有两种情况,一种是在加入该键值对后该桶依然保持链表结构,
        //第二种就是加入该键值对后该桶结构转换为红黑树
        Node<K,V> e;//这里的e记录的就是要存放的新的键值对
        K k;//这里的k就是要存放的新的键值对的键
        //上面已经对p赋值过了:p=table的i位置处的桶中的第一个元素,这个i就是该要存放的键值对应该放的位置桶的位置
        //如果要新存放的键值对中的键与p结点的键相同()
        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        //如果p是红黑树中的结点的类型,则将结点放入红黑树中
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {//这种情况是:新的键值对要放的桶为链表结构,把该键值对放到链表中
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {//循环达到链表的尾部,注意这里的赋值,e=p.next
                    //在尾部插入新结点
                    p.next = newNode(hash, key, value, null);
                    //如果插入新结点后,链表中结点数量超过了阈值TREEIFY_THRESHOLD,则将该链表结构转换为红黑树结构
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    //跳出循环
                    break;
                }
                //在每一次循环中,判断当前链表中的结点的key是否与要存放的新的键值对的key相同
                //相同就跳出循环(这里的e已经在之前被赋值为p.next)
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;

                //这一句是用于遍历桶中的链表,与前面的e = p.next组合,其他没啥用
                p = e;
            }
        }
        //表示在桶中找到key值、hash值与插入元素相等的结点(变量e就指向那个结点)
        //此时,只要更新e的值就可以了。
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    //此时新键值对已经添加到了HashMap中,如果此时HashMap中的键值对个数大于了阈值,就进行扩容resize
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

resize

resize()方法有两个作用:初始化table数组;将table数组长度翻倍。

在将table数组长度翻倍的时候,还要重新计算每个键值对应该在的位置,并重新生成链表或者红黑树,这是非常消耗性能的。所以,在使用HashMap的时候,如果能预估出元素的最大容量,最好指定这个容量值。

扩容时机: 当put时,如果发现目前的bucket占用程度已经超过了Load Factor所希望的比例,那么就会发生resize。 大体过程: 先将table数组长度变为原来的2倍,然后将table中的键值对重新分配到各个桶中:循环原table,注意的是,循环次数为数组table的长度,而不是HashMap的size(键值对的个数);在循环体中,对原table中任意一个位置,会判断该位置的结点类型:只有一个、链表、红黑树,然后分类进行重哈希。 如果原table的该位置处的桶结构为链表,则该链表会保留元素顺序:它指的是,假如链表中两个结点a和b,有a.next=b或者a.next.next...=b,那么在重哈希以后,如果a和b仍然在同一链表中,依然会保持a.next=b或者a.next.next...=b的关系;当然只是顺序,next的次数与之前是不同的。

/**
 * Initializes or doubles table size.  If null, allocates in
 * accord with initial capacity target held in field threshold.
 * Otherwise, because we are using power-of-two expansion, the
 * elements from each bin must either stay at same index, or move
 * with a power of two offset in the new table.
 *
 * 数组table初始化或者扩容(翻倍)。
 * 如果table为null,则根据初始容量分配。
 * 如果table不为null,由于使用了翻倍的扩展方式,桶里的键值对要么依然在原位置,
 * 要么在原位置再移动2次幂的位置。
 *
 * @return the table
 */
final Node<K,V>[] resize() {
    //oldTab指向原来的table(未调整大小的)
    Node<K,V>[] oldTab = table;
    //原来table的长度
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    //原来table的阈值
    int oldThr = threshold;
    //定义新容量(数组的长度)、新阈值
    int newCap, newThr = 0;
    //如果原table的容量大于0
    if (oldCap > 0) {
        if (oldCap >= MAXIMUM_CAPACITY) {//如果原table的容量已经达到了最大容量值,则不能再扩容了,直接返回
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        //进行翻倍(同时保证翻倍后容量值小于最大容量值),并且将阈值也翻倍
        //阈值翻倍?因为阈值的定义为:容量*装载因子;装载因子不变,容量翻倍后,阈值也要翻倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    //如果原table的容量小于等于0,并且原阈值>0
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    //此时,已经计算好了新的阈值、新的容量
    //将计算好的新的阈值赋给成员变量threshold
    threshold = newThr;

    //创建一个新的数组,容量为之前计算好的新的容量,并将成员变量table指向这个数组
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;

    //如果原table不为空
    if (oldTab != null) {
        //循环原table,注意的是,循环次数为数组table的长度,而不是HashMap的size(键值对的个数)
        //在循环体中,对原table中任意一个位置,会判断该位置的结点类型:只有一个、链表、红黑树
        //然后分类进行重哈希
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;//该变量保存的是每次循环时的那个结点
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)//也就是原table的该位置处的桶只有一个结点
                    //将结点存储在位置e.hash & (newCap - 1)处(为什么要这么计算?有待研究。。。)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)//如果原table的该位置处的桶结构为红黑树
                    //重新分布该桶里的结点
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                //如果原table的该位置处的桶结构为链表
                else { // preserve order
                    //上面的preserve order是自带的注释:保留顺序,
                    //它指的是,假如链表中两个结点a和b,有a.next=b或者a.next.next...=b,
                    //那么在重哈希以后,如果a和b仍然在同一链表中,依然会保持a.next=b或者a.next.next...=b的关系
                    //当然只是顺序,next的次数与之前是不同的。


                    //这里的四个变量loHead、loTail、hiHead、hiTail是代表什么呢?
                    //tail和head很容易想到是链表的尾结点和头结点的意思。
                    //看字面lo是lower,hi是high。那么这里的lower和high是什么呢?
                    //这里的高低是指该链表所在的table的原位置与table扩容后链表中将要移动位置
                    //的那些结点所在的新table的新位置。

                    //也就是说该链表中的元素基本会有一半的元素继续待在新table的j处组成新链表m,
                    //这个新链表m的头结点为loHead,尾结点为loTail
                    //另一半元素会移动到新table的j + oldCap位置处组成另一个新的链表n,
                    //这个新链表n的头结点为hiHead,尾结点为hiTail
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;//
                    //对该链表进行循环,从头到尾的顺序
                    do {
                        next = e.next;
                        //链表中的结点进行e.hash & oldCap运算,对于该链表的所有结点而言,
                        //这个结果会大约一半等于0,一半等于1,也就是else的情况
                        if ((e.hash & oldCap) == 0) {//继续留在j处的结点,这些元素在table的该处形成新的链表
                            //这里的逻辑相当于往单链表添加元素(在尾部添加),下面else的逻辑是一样的,只是元素不一样而已。
                            //添加第一个元素a时,此时尾结点为空:则将头、尾结点都指向a
                            //之后再添加元素x时,由于尾结点不再为空,执行loTail.next = x,
                            //即将此时尾结点的属性"下一个结点"设置为x,
                            //再将尾结点指向x。
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {//将会移动到j + oldCap的结点
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    //到这里,两个链表已经形成了,只是还没有指定到它们该在的位置
                    if (loTail != null) {//将其中一个链表的头结点放到新table的j处(当然也是原table的j处)
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {//将另外一个链表的头结点放到新table的j + oldCap处
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

get

//根据key获取value。
//HashMap中不会包含重复key。也就是对于同一key,只可能存在一个Node。
//如果返回null,并不一定说明不存在包含这个key的键值对,有可能该键值对就是<key,null>,也就是e.value等于null
//可以使用containsKey方法来判断HashMap是否含有某特定key。
public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}

看方法getNode:

/**
 * Implements Map.get and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @return the node, or null if none
 *
 */
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab;
    Node<K,V> first, e;
    int n;
    K k;//寻找Node过程中的key

    //给定一个键值对,根据这个键值对的key,生成一个哈希值hash,
    //那么这个键值对应该放在table数组的(n - 1) & hash位置处。
    //该位置处可能为空(情况a),
    //可能是只有一个键值对的桶(情况b),
    //可能是链表结构的桶(情况c),
    //可能是红黑树结构的桶(情况d)

    //数组table不为空 && 数组table的长度大于0 && 根据hash值定位的数组位置处的结点不为空
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        //情况b:直接返回该结点
        if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        if ((e = first.next) != null) {
            //情况d:调用红黑树的getTreeNode方法
            if (first instanceof TreeNode)
                return ((TreeNode<K,V>)first).getTreeNode(hash, key);
            //情况c:对单链表进行循环,
            //单链表的查找的平均时间复杂度为为O(n),n为链表结点个数
            //由于HashMap中链表结构最多有8个结点(更多的话就会这些结点就会转换为红黑树结构),
            //所以很快就可以找到
            do {
                if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    //情况a,返回null
    return null;
}

以上是对HashMap中的几个感觉比较重要的方法的分析,如有不对的地方欢迎指正。

下图示意了一个单链表和一颗红黑树的范畴