集合源码分析(四)HashMap实现

版权声明:本文为博主原创文章,转载添加原文链接 https://blog.csdn.net/qq_34190023/article/details/80879390

HashMap是常用的Java集合之一,是基于哈希表的Map接口的实现。与HashTable主要区别为不支持同步和允许null作为key和value。由于HashMap不是线程安全的,如果想要线程安全,可以使用ConcurrentHashMap代替。

 

HashMap的底层是哈希数组,数组元素为Entry。HashMap通过key的hashCode来计算hash值,当hashCode相同时,通过“拉链法”解决冲突。jdk1.8在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为8)时,将链表转化为红黑树,以减少搜索时间。原本Map.Entry接口的实现类Entry改名为了Node。转化为红黑树时改用另一种实现TreeNode。

 

HashMap就是这样一个Entry(包括Node和TreeNode)数组,Node对象中包含键、值和hash值,next指向下一个Entry,用来处理哈希冲突。TreeNode对象包含指向父节点、子节点和前一个节点(移除对象时使用)的指针,以及表示红黑节点的boolean标识

 

HashMap的非线程安全问题解决方案:

HashMap:线程不安全

HashTable:锁住整张hash表,让线程独占,使用synchronized针对整张hash表,每次锁住整张表线程独占,安全的背后是巨大浪费

ConcurrentHashMap:提供了很好的并发性,多个读操作几乎可以并发执行,是锁段(默认吧hash表分为16个段),在put和get,remove等操作中,ConcurrentHashMap只锁定当前使用需要用到的段,只有在求size的时候才锁定整张hash表

 

Q:如何解决HashMap的线程安全问题?(JDK1.7)

HashMap底层是一个Entry数组,当发生hash冲突的时候,HashMap是采用链表的方式来解决的,在对应的数组位置存放链表的头结点。对链表而言,新加入的节点会从头结点加入。javadoc中有一段关于HashMap的描述:

此实现不是同步的。如果多个线程同时访问一个哈希映射,而其中至少一个线程从结构上修改了该映射,则它必须保持外部同步。(结构上的修改是指添加或删除一个或多个映射关系的任何操作;仅改变与实例已经包含的键关联的值不是结构上的修改。)这一般通过对自然封装该映射的对象进行同步操作来完成。如果不存在这样的对象,则应该使用 Collections.synchronizedMap 方法来“包装”该映射。最好在创建时完成这一操作,以防止对映射进行意外的非同步访问,如下所示:

Map m = Collections.synchronizedMap(new HashMap(...));

 

Q: HashMap什么时候进行扩容?

当HashMap中的元素个数超过数组大小(数组总大小length,不是数组中个数size)*loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小为16,那么当HashMap中元素个数超过16*0.75=12(这个值就是代码中的threshold值,也叫做临界值)的时候,就把数组的大小扩展为 2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。

 

 

Fail-Fast机制:

java.util.HashMap不是线程安全的,如果在使用迭代器的过程中有其他线程修改了 map,将抛出 ConcurrentModificationException,这就是所谓 fail-fast策略。

这一策略在源码中的实现是通过modCount 域,modCount 顾名思义就是修改次数,对HashMap 内容的修改都将增加这个值,那么在迭代器初始化过程中会将这个值赋给迭代器的 expectedModCount。

HashIterator() {  

    expectedModCount = modCount;  

    if (size > 0) { // advance to first entry  

    Entry[] t = table;  

    while (index < t.length && (next = t[index++]) == null)  

        ;   

    }  

}  

在迭代过程中,判断modCount 跟expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了Map:

注意到modCount 声明为volatile,保证线程之间修改的可见性。

final Entry<K,V> nextEntry() {     

    if (modCount != expectedModCount)     

        throw new ConcurrentModificationException();  

在 HashMap 的 API中指出:

由所有 HashMap 类的“collection 视图方法”所返回的迭代器都是快速失败的:在迭代器创建之后,如果从结构上对映射进行修改,除非通过迭代器本身的 remove 方法,其他任何时间任何方式的修改,迭代器都将抛出 ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒在将来不确定的时间发生任意不确定行为的风险。  注意,迭代器的快速失败行为不能得到保证,一般来说,存在非同步的并发修改时,不可能作出任何坚决的保证。快速失败迭代器尽最大努力抛出 ConcurrentModificationException。因此,编写依赖于此异常的程序的做法是错误的,正确做法是:迭代器的快速失败行为应该仅用于检测程序错误。

 

 

 

HashMap底层是一个链表散列(即数组和链表的结合体)

 https://img-blog.csdn.net/20160127173307041

1、对比HashMap在Java8和Java7的源码实现:

2、结合源码在Java7中是如何解决hash冲突的以及优缺点,结合源码。

3、在JDK7和JDK8中如何解决hash冲突,balance tree相关源码介绍。

 

解决hash冲突的办法:

开放定址法(线性探测再散列,二次探测再散列,伪随机探测再散列)

再哈希法

链地址法

建立一个公共溢出区

Java7中hashmap解决方案是采用的链地址法

 

 

HashMap的原理介绍

HashMap是一个散列表,它存储的内容是键值对(key-value)映射。

//Node是单向链表,它实现了Map.Entry接口【table数组中的封装元素】

static class Node<K,V> implements Map.Entry<K,V> {
   
final int hash;
    final
K key;
   
V value;
   
Node<K,V> next;
   
Node(int hash, K key, V value, Node<K,V> next) {
       
this.hash = hash;
        this
.key = key;
        this
.value = value;
        this
.next = next;
   
}
   
public final K getKey()        { return key; }
   
public final V getValue()      { return value; }
   
public final String toString() { return key + "=" + value; }
   
public final int hashCode() {
       
return Objects.hashCode(key) ^ Objects.hashCode(value);
   
}
   
public final V setValue(V newValue) {
       
V oldValue = value;
       
value = newValue;
        return
oldValue;
    
}
   
public final boolean equals(Object o) {
       
if (o == this)
           
return true;
        if
(o instanceof Map.Entry) {
            Map.Entry<?
,?> e = (Map.Entry<?,?>)o;
            if
(Objects.equals(key, e.getKey()) &&
                Objects.equals(
value, e.getValue()))
               
return true;
       
}
       
return false;
   
}
}

 

Java 7 中HashMap的源码分析

构造方法:

构造函数中,根据初始化的CapacityloadFactor(加载因子)初始化HashMap.

public HashMap(int initialCapacity, float loadFactor) {

        if (initialCapacity < 0)   throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);

        if (initialCapacity > MAXIMUM_CAPACITY)

            initialCapacity = MAXIMUM_CAPACITY;

        if (loadFactor <= 0 || Float.isNaN(loadFactor))   throw new IllegalArgumentException("Illegal load factor: " +loadFactor);

        this.loadFactor = loadFactor;   // 保存加载因子

        threshold = initialCapacity;    // 保存初始容量

        init();    // 调用初始化方法进行初始化

    }

HashMap性能相关两个参数:初始容量(initialCapacity) 和加载因子(loadFactor)。

容量:哈希表中桶的数量,初始容量只是哈希表在创建时的容量。(初始容量为16)

加载因子:哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,则要对该哈希表进行 rehash 操作(即重建内部数据结构),从而哈希表将具有大约两倍的桶数。(加载因子为0.75)
负载因子衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来说,查找一个元素的平均时间是 O(1+a),因此如果负载因子越大,对空间的利用更充分,然而后果是查找效率的降低;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。

 

threshold = (int)(capacity * loadFactor); 结合负载因子的定义公式,threshold就是在此 loadFactor 和capacity对应下允许的最大元素数目,超过这个数目就重新resize,以降低实际的负载因子。默认的的负载因子0.75是对空间和时间效率的一个平衡选择。当容量超出此最大容量时,  resize后的HashMap容量是容量的两倍:

if (size++ >= threshold)     

    resize(2 * table.length);

 

put方法:(JDK7)

对于<key1,value1>的put方法实现相对比较简单,

根据 key1 key值计算hash值,根据该hash值与tablelength确定该key所在的index,

如果当前位置的Entry不为null,则在该Entry链中遍历,(以链表方式存储)如果找到hash值和key值都相同,则将值value覆盖,返回oldValue;如果当前位置的Entry为null,则直接addEntry存进去。

public V put(K key, V value) {

        if (table == EMPTY_TABLE) {

            inflateTable(threshold);

        }// 当key为null时,调用putForNullKey方法,将value放置在数组第一个位置

        if (key == null)  return putForNullKey(value);

        int hash = hash(key);              // 计算出哈希值

        int i = indexFor(hash, table.length);  // 找到对应的索引

        for (Entry<K,V> e = table[i]; e != null; e = e.next) {//如果 i 索引处的 Entry 不为 null,循环不断遍历 e 元素的下一个元素

            Object k;

            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {  //  当找到的key值完全相等时,新值覆盖旧值,返回旧值

                V oldValue = e.value;

                e.value = value;

                e.recordAccess(this);

                return oldValue;

            }

        }

// 如果i索引处的Entry为null,直接addEntry插入

        modCount++;

        addEntry(hash, key, value, i);

        return null;

}

 

addEntry方法:(JDK7)

会检查当前table是否需要resize

 void addEntry(int hash, K key, V value, int bucketIndex) {

        if ((size >= threshold) && (null != table[bucketIndex])) {

            resize(2 * table.length);           //当前map中的size 如果大于threshole的阈值,则将resizetablelength扩大2

            hash = (null != key) ? hash(key) : 0;

            bucketIndex = indexFor(hash, table.length);

        }

        createEntry(hash, key, value, bucketIndex);

    }

 

resize方法(JDK7):扩容

将OldTable的长度扩展,并将oldTable中的Entry根据rehash的标记重新计算hash值和index移动到newTable中

void resize(int newCapacity) {

        Entry[] oldTable = table;

        int oldCapacity = oldTable.length;

        if (oldCapacity == MAXIMUM_CAPACITY) {    //扩容前的数组大小如果已经达到最大(2^30)了,修改阈值为int的最大值

            threshold = Integer.MAX_VALUE;          // 不进行扩容

            return;

        }

        Entry[] newTable = new Entry[newCapacity];                //  根据新的容量重新分配数组大小

        transfer(newTable, initHashSeedAsNeeded(newCapacity));     //  将当期table的Entry专移到新的table中

        table = newTable;                                                                             //  table引用新的table

        threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);    //  修改阈值

    }

    /*** 将当前table的Entry转移到新的table中,将原有Entry数组元素拷贝到新的数组里  */

    void transfer(Entry[] newTable, boolean rehash) {

        int newCapacity = newTable.length;

        for (Entry<K,V> e : table) {

            while(null != e) {

                Entry<K,V> next = e.next;

                if (rehash) {

                    e.hash = null == e.key ? 0 : hash(e.key);

                }

                int i = indexFor(e.hash, newCapacity);          //   重新计算每个元素在数组中的位置

                e.next = newTable[i];                       //   

                newTable[i] = e;                           //    将元素放在数组上

                e = next;                                 //     访问下一个Entry链上的元素

            }

        }

}

static int indexFor(int h, int length) { 

    return h & (length - 1); 

newTable[i]的引用赋给了e.next,即使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置;这样先放在一个索引上的元素终会被放到Entry链的尾部(如果发生了hash冲突的话)。(也就是先冲突的最后会在链表的尾部)

在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上。

 

HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,因为数组的长度是固定的。所以为了提高查询的效率,就要对 HashMap 的数组进行扩容。

扩容条件:当 HashMap中的元素个数超过数组大小*loadFactor 时,会进行数组扩容, loadFactor默认0.75(折中的取值),默认情况下,数组大小为 16,当 HashMap中元素个数超过12时,就把数组的大小扩大一倍为 2*16=32,

然后重新计算每个元素在数组中的位置,并将元素放进去,即resize,而这是一个非常(最)消耗性能的操作,(并发问题)

优化:如果已经预知 HashMap中元素的个数,那么预设元素的个数能够有效的提高 HashMap的性能。

 

 

源码:在Java7 中 HashMap的entry是按照index索引存储的,遇到hash冲突的时候采用拉链法解决冲突,将冲突的keyvalue插入到链表list
这种解决方法会有一个缺点,假如key值都冲突,HashMap会退化成一个链表,get的复杂度会变成O(n)。
 

主要名词:

装载因子:主要控制空间利用率和冲突。大致记住装载因子越大空间利用率更高,但是冲突可能也会变大,反之则相反。源码中默认0.75f

容量:用于控制HashMap大小的

modCount:是渗透在HashMap类中的方法里面的,只要HashMap发生一次变化,就会对应的+1,可以称为修改次数计数器。主要是存在与非线程安全的集合当中。HashMap是一种非线程安全的类(涉及HashMap与HashTable区别),如果某一个HashMap对象你在操作的过程中,被别的线程修该了怎么办?因此,modCount就应运而生啦,在迭代器初始化过程中会将modCount值赋的给迭代器的 expectedModCount。在迭代过程中,判断 modCount 跟 expectedModCount 是否相等,如果不相等就表示已经有其他线程修改了 Map,从而抛出ConcurrentModificationException。这就是fail-fast策略。

 

 

 

 

 

Java8中为了优化该最坏情况下的性能,采用了平衡树来存放这些hash冲突的键值对,性能可提升至O(logn)。

JDK8中HashMap中常量定义

static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;

static final int MAXIMUM_CAPACITY = 1 << 30;

static final int MIN_TREEIFY_CAPACITY = 64;    // 决定是否转换成tree的最小容量

static final int TREEIFY_THRESHOLD = 8;        // 是否将list转换成tree的阈值(扩容时)

static final int UNTREEIFY_THRESHOLD = 6;     // 在resize操作中,决定是否untreeify的阈值(扩容时)

static final float DEFAULT_LOAD_FACTOR = 0.75f; // default的加载(装载)因子

transient Node<K,V>[] table;
transient int modCount;                   // hashmap结构被改变的次数,fail-fast机制
transient int size;                       // 记录hashmap中存储键-值对的数量

 

//当知道所要构建的数据容量的大小时,最好直接指定大小,提高效率

构造方法:

public HashMap(int initialCapacity, float loadFactor) {

    if (initialCapacity < 0)

        throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);

    if (initialCapacity > MAXIMUM_CAPACITY)

        initialCapacity = MAXIMUM_CAPACITY;

    if (loadFactor <= 0 || Float.isNaN(loadFactor))

        throw new IllegalArgumentException("Illegal load factor: " +  loadFactor);

    this.loadFactor = loadFactor;
//重新定义了扩容的门限  

    this.threshold = tableSizeFor(initialCapacity);

}

// 

static final int tableSizeFor(int cap) {

    int n = cap - 1;

    n |= n >>> 1;

    n |= n >>> 2;

    n |= n >>> 4;

    n |= n >>> 8;

    n |= n >>> 16;
// 最终变成2的倍数

    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;

}

 

put方法(JDK8)

public V put(K key, V value) {
   
return putVal(hash(key), key, value, false, true);
}

static final int hash(Object key) {
   
int h;
    return
(key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
    Node<
K,V>[] tab; Node<K,V> p; int n, i;
    if
((tab = table) == null || (n = tab.length) == 0)
        n = (tab =
resize()).length; //table为空的时候,ntable的长度
    if ((p = tab[i = (n - 1) & hash]) == null) // (n - 1) & hash JDK7indexFor方法实现相同,若i位置上的值为空,则新建一个Nodetable[i]指向该Node

[i = (n - 1) & hash])相当于%运算,但%运算效率没有这样高)【数组大小一定要是2n次幂。因为这样数组的散列性就大,碰撞的概率就低。2n次幂,最高位都是1,其他都是0,然后减一,低位都是1,和hash&后,不会出现非2次幂出现的一个位置中,因为减一,而出现后面有0的状态,然后与运算后,可能有多个值在同一个地方,碰撞率增大】

作用1:不会越界

作用2:降低碰撞几率
        tab[i] = newNode(hash, key, value, null);  // 这里的数组位置为空,就存放进去
    else {

// 如果不为空,也就是有冲突了,是否成链或成树
        Node<K,V> e; K k;
        if
(p.hash == hash &&  ((k = p.key) == key || (key != null && key.equals(k))))
            e = p
;                //key相同则覆盖
        else if (p instanceof TreeNode)  //有值,且已经是红黑树了

// 不同,且当前位置上的的node p已经是TreeNode的实例,则再该树上插入新的node
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else
{  //是链表

// i位置上的值不为空,判断当前位置上的Node p 是否与要插入的keyhashkey相同

// i位置上的链表中找到p.nextnull的位置,binCount计算出当前链表的长度,如果继续将冲突的节点插入到该链表中,会使链表的长度大于tree化的阈值,则将链表转换成tree
            for (int binCount = 0; ; ++binCount) {
               
if ((e = p.next) == null) {//p的下一节点赋给e,如果为null,创建一个新节点赋给p的下一个节点
                    p.next = newNode(hash, key, value, null);

//如果冲突节点达到8个,调用treeifyBin(tab, hash) treeifyBin首先回去判断当前hash表的长度,如果不足64的话,实际上就只进行resize,扩容table,如果已经达到64,才将冲突项存储结构改为红黑树。 
                    if
(binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st  【链表长度大于8
                        treeifyBin(tab, hash); //转化为红黑树的结构
                    break;
               
}

//如果有相同的hashkey,则退出循环
                if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
                   
break;
               
p = e; //p调整为下一个节点
            }
        }

//e不为null,表示已存在与待插入节点hashkey相同的节点,hashmap后插入的key值对应的value会覆盖以前相同key值对应的value值,就是下面这块代码实现的 
       
if (e != null) { // existing mapping for key
            
V oldValue = e.value;

//判断是否修改已插入节点的value
            if
(!onlyIfAbsent || oldValue == null)
                e.
value = value;
           
afterNodeAccess(e);
            return
oldValue;
       
}
    }
    ++
modCount; //插入新节点后,hashmap的结构调整次数+1
    if
(++size > threshold) //如果hashMap的大小大于阀值就需要扩容操作
        resize();//HashMap中节点数+1,如果大于threshold,那么要进行一次扩容 
   
afterNodeInsertion(evict);
    return null;

}

 

resize方法,由于需要考虑hash冲突解决时采用的可能是list 也可能是balance tree的方式,因此resize方法相比JDK7中复杂了一些,

resize方法(JDK8)(扩容后需要重新打散分散到新的table中)

/**
 * Initializes or doubles table size.  If null, allocates in accord with initial capacity target held in field threshold.
 * Otherwise,
because we are using power-of-two expansion, the elements from each bin must either stay at same index, or move with a power of two offset in the new table.
 */

final Node<K,V>[] resize() {
    Node<
K,V>[] oldTab = table; //定义临时Node数组型变量,作为hash table 
    int
oldCap = (oldTab == null) ? 0 : oldTab.length; //读取hash table的长度 
    int
oldThr = threshold; //旧表的阈值(门限)
    int newCap, newThr = 0; //定义新表的容量和新表的阈值
    if (oldCap > 0) {//进入条件:正常扩容  如果旧表容量大于0,这个情况就是要扩容了
        if (oldCap >= MAXIMUM_CAPACITY) {
           
threshold = Integer.MAX_VALUE; //如果超过最大容量,无法再扩充table
            return
oldTab;
        
}//二倍扩容,容量和门限值都加倍 
       
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr <<
1; // double threshold  // threshold门槛扩大至2倍,扩容
    }//进入条件:初始化的时候使用了自定义加载因子的构造函数
    else if (oldThr > 0) // initial capacity was placed in threshold // 这里如果执行的情况是原表容量为0的时候,但是阀值又不为0
       
newCap = oldThr;
    else
{ // zero initial threshold signifies using defaults 这里对数组进行了初始化:调用无参或者一个参数的构造函数进入默认初始化
        newCap = DEFAULT_INITIAL_CAPACITY;
       
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // 容量*负载因子
    }
   
if (newThr == 0) {      //二倍扩容,容量和门限值都加倍 
       
float ft = (float)newCap * loadFactor; //新表容量*加载因子
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);
   
}
   
threshold = newThr; //确定新的阀值

//开始构造新表
    @SuppressWarnings({"rawtypes","unchecked"})
        Node<
K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 创建容量为newCapnewTab,并将oldTab中的Node迁移过来,这里需要考虑链表和tree两种情况。
    table = newTab;

//当原来的table不为null时,需要将table[i]中的节点迁移 

//遍历旧数组中的元素,复制到table数组中
    if (oldTab != null) {

// 循环遍历老数组中的节点内容
        for (int j = 0; j < oldCap; ++j) {
            Node<
K,V> e;

//TODO:在这里可能会出现数据丢失[多线程引发的问题]
            if
((e = oldTab[j]) != null) {//取出链表中第一个节点保存,若不为null,继续下面操作
                oldTab[j] = null; // 将旧的表置空
                if (e.next == null) // 如果下一个没有链表或者树,则直接迁移到新的table
                    newTab[e.hash & (newCap - 1)] = e;// 把该对象赋值给新表的某一个桶中(如果首位为0,则待在原来的位置上)
                else if (e instanceof TreeNode)   //如果是红黑树,则按照红黑树进行打散
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); // split方法会将树分割为lower upper tree两个树,如果子树的节点数小于了UNTREEIFY_THRESHOLD阈值,则将树untreeify,将节点都存放在newTab中。
                else { // preserve order  如果下面是链表
                    Node<K,V> loHead = null, loTail = null;
                   
Node<K,V> hiHead = null, hiTail = null;
                   
Node<K,V> next;
                    do
{
                        next = e.
next;
                        if
((e.hash & oldCap) == 0) {  //原本这里需要重新计算哈希的,但是这样的运算,就可以直接算出位置了,而不需要使用哈希然后再计算一遍
                            if (loTail == null)
                                loHead = e
;
                            else
                               
loTail.next = e;
                            
loTail = e;
                       
}
                       
else {  // 需要改变,迁移到新的table
                            if (hiTail == null)    hiHead = e;
                            else      
hiTail.next = e;
                           
hiTail = e;
                       
}
                    }
while ((e = next) != null);
                    if
(loTail != null) {
                        loTail.
next = null;
                        
newTab[j] = loHead;
                   
}
                   
if (hiTail != null) {
                        hiTail.
next = null;
                       
newTab[j + oldCap] = hiHead;
                    }

/** 通过e.hash & oldCap将链表分为两队

把链表上的键值对按hash值分成lohi两串,lo串的新索引位置与原先相同[原先位j]hi串的新索引位置为[原先位置j+oldCap] 链表的键值对加入lo还是hi串取决于判断条件if ((e.hash & oldCap) == 0),因为capacity2的幂,所以oldCap10...0的二进制形式,若判断条件为真,意味着 oldCap1的那位对应的hash位为0,对新索引的计算没有影响(新索引 =hash&(newCap-*1)newCap=oldCap<<2);若判断条件为假,则 oldCap1的那位* 对应的hash位为1 即新索引=hash&( newCap-1 )= hash&( (oldCap<<2) - 1),相当于多了10...0 oldCap

例子:

旧容量=16,二进制10000;新容量=32,二进制100000

旧索引的计算:

hash = xxxx xxxx xxxy xxxx

旧容量-1 1111

&运算 xxxx

新索引的计算:

hash = xxxx xxxx xxxy xxxx

新容量-1 1 1111

&运算 y xxxx

新索引 = 旧索引 + y0000,若判断条件为真,则y=0(lo串索引不变),否则y=1(hi串索引=旧索引+旧容量10000)

*/ 

                }
            }
        }
    }
   
return newTab;
}

 

对于resize的理解:

对于oldTable中存储的为15、7、4、5、8、1,长度为8的一个数组中,存储位置如下

0

1

2

3

4

5

6

7

8

1

 

 

4

5

 

15

7

 

 

 

 

 

当扩容到一倍后,对于新的位置的选择通过e.hash & oldCap 确认其在新的数组中的位置,

如:8:1000 与原来长度8:1000相与后,为1,则在新的数组中的位置,为原位置加上原数组长度即可。避免了重新计算数组位置。

对于7:111与原长度8:1000相与后,为0,表示其在新数组中的位置是不变的,仍在在7的位置上。

在求新数组的位置时,其仅是最高位上增加了1而已,与原数组长度最高位是一致的,忽略低位信息,可以直接判断出其在原数组中是否已经超过了本身的长度,形成了数据链。

最后在新的空间中存储如下:

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

 

1

 

 

4

5

 

7

8

 

 

 

 

 

 

15

 

 

 

 

JDK1.8优化:使用2次幂的扩展(指长度扩为原来2倍)

rehash之后,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置

图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。

http://tech.meituan.com/img/java-hashmap/hashMap%201.8%20%E5%93%88%E5%B8%8C%E7%AE%97%E6%B3%95%E4%BE%8B%E5%9B%BE1.png

元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

http://tech.meituan.com/img/java-hashmap/hashMap%201.8%20%E5%93%88%E5%B8%8C%E7%AE%97%E6%B3%95%E4%BE%8B%E5%9B%BE2.png

在扩充HashMap的时候,不需要像JDK1.7实现那样重新计算hash,只需看原来的hash值新增的那个bit是1还是0就好,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:

这个设计既省去了重新计算hash值的时间,同时由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。

JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,

但JDK1.8不会倒置

 

 

再看一下tree的treeifyBin方法和putTreeVal方法的实现,底层采用了红黑树的方法。

final void treeifyBin(Node<K,V>[] tab, int hash) {
   
int n, index; Node<K,V> e;
    if
(tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) // 若当前长度不足64,则扩容
        resize();
    else if
((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<
K,V> hd = null, tl = null;
        do
{                                    //   将链表转为红黑树
            TreeNode<K,V> p = replacementTreeNode(e, null);
            if
(tl == null)
                hd = p
;
            else
{
                p.
prev = tl;
               
tl.next = p;
           
}
            tl = p
;
       
} while ((e = e.next) != null);
        if
((tab[index] = hd) != null)
            hd.treeify(tab)
;
   
}
}

final Node<K,V> untreeify(HashMap<K,V> map) {

    Node<K,V> hd = null, tl = null;

    for (Node<K,V> q = this; q != null; q = q.next) {

        Node<K,V> p = map.replacementNode(q, null);

        if (tl == null) hd = p;

        else tl.next = p;

        tl = p;

    }

    return hd;

}

// putVal 的tree版本

final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v) {
    Class<?> kc =
null;
    boolean
searched = false;
   
TreeNode<K,V> root = (parent != null) ? root() : this;
    for
(TreeNode<K,V> p = root;;) {
        
int dir, ph; K pk;
        if
((ph = p.hash) > h) dir = -1;
        else if
(ph < h) dir = 1;
        else if
((pk = p.key) == k || (k != null && k.equals(pk)))  return p;
        else if
((kc == null && (kc = comparableClassFor(k)) == null) ||
                 (dir = compareComparables(kc
, k, pk)) == 0) {
           
if (!searched) {
                TreeNode<
K,V> q, ch;
               
searched = true;
                if
(((ch = p.left) != null && (q = ch.find(h, k, kc)) != null) ||
                    ((ch = p.
right) != null && (q = ch.find(h, k, kc)) != null))
                   
return q;
           
}
            dir = tieBreakOrder(k
, pk);
       
}
        TreeNode<
K,V> xp = p;
        if
((p = (dir <= 0) ? p.left : p.right) == null) {
            Node<
K,V> xpn = xp.next;
           
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
            if
(dir <= 0)   xp.left = x;
            else  
xp.right = x;
           
xp.next = x;
           
x.parent = x.prev = xp;
            if
(xpn != null)   ((TreeNode<K,V>)xpn).prev = x;
           
moveRootToFront(tab, balanceInsertion(root, x));
            return null;
       
}
    }
}

像红黑树、迭代器等还没有仔细研究

红黑树的分析比较难。。。

红黑树的部分源码:

static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {

    TreeNode<K,V> parent// red-black tree links

    TreeNode<K,V> left;

    TreeNode<K,V> right;

    TreeNode<K,V> prev;    // needed to unlink next upon deletion

    boolean red; // 节点颜色

    TreeNode(int hash, K key, V val, Node<K,V> next) {

        super(hash, key, val, next);

    }

    /**

     * Returns root of tree containing this node.

     */

    final TreeNode<K,V> root() {

        for (TreeNode<K,V> r = this, p;;) {

            if ((p = r.parent) == null)

                return r;

            r = p;

        }

    }
。。。。

get方法系列:(JDK1.8)

public V get(Object key) {

    Node<K,V> e;

    return (e = getNode(hash(key), key)) == null ? null : e.value;

}
// 很简单,就是根据哈希值到哈希表中的位置查找,如果是第一个,则直接返回,否则,根据链表或红黑树的方法进行遍历,通过判断key的值进行获取,如果没有找到,则返回null
final Node<K,V> getNode(int hash, Object key) {

    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;

    if ((tab = table) != null && (n = tab.length) > 0 &&

        (first = tab[(n - 1) & hash]) != null) {

        if (first.hash == hash && // always check first node

            ((k = first.key) == key || (key != null && key.equals(k))))

            return first;

        if ((e = first.next) != null) {

            if (first instanceof TreeNode)

                return ((TreeNode<K,V>)first).getTreeNode(hash, key);

            do {

                if (e.hash == hash &&

                    ((k = e.key) == key || (key != null && key.equals(k))))

                    return e;

            } while ((e = e.next) != null);

        }

    }

    return null;

}

clear方法:

public void clear() {

    Node<K,V>[] tab;

    modCount++;

    if ((tab = table) != null && size > 0) {

        size = 0;

        for (int i = 0; i < tab.length; ++i)

            tab[i] = null;  // 直接置空,问题来了,直接置空,那么链表红黑树会被回收吗?基于两种回收算法去分析,如果怎样怎样

    }

}

pullAll分析:

public void putAll(Map<? extends K, ? extends V> m) {

    putMapEntries(m, true);

}
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {

    int s = m.size();

    if (s > 0) {

        if (table == null) { // pre-size

            float ft = ((float)s / loadFactor) + 1.0F;

            int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY);

            if (t > threshold)

                threshold = tableSizeFor(t);

        }

        else if (s > threshold)

            resize();
// 底层还是直接遍历的方式去赋值。最后还是调用putVal【性能问题有没有??】

        for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {

            K key = e.getKey();

            V value = e.getValue();

            putVal(hash(key), key, value, false, evict);

        }

    }

}

remove方法:

public V remove(Object key) {

    Node<K,V> e;

    return (e = removeNode(hash(key), key, null, false, true)) == null ?null : e.value;

}

 

final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) {

    Node<K,V>[] tab; Node<K,V> p; int n, index;

    if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) {

        Node<K,V> node = null, e; K k; V v;

        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))

            node = p;

        else if ((e = p.next) != null) {

            if (p instanceof TreeNode)

                node = ((TreeNode<K,V>)p).getTreeNode(hash, key);

            else {

                do {

                    if (e.hash == hash && ((k = e.key) == key ||(key != null && key.equals(k)))) {

                        node = e;

                        break;

                    }

                    p = e;

                } while ((e = e.next) != null);

            }

        }

        if (node != null && (!matchValue || (v = node.value) == value ||

                             (value != null && value.equals(v)))) {

            if (node instanceof TreeNode)    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);

            else if (node == p)  tab[index] = node.next;

            else   p.next = node.next;

            ++modCount;

            --size;

            afterNodeRemoval(node);

            return node;

        }

    }

    return null;

}

 

final void removeTreeNode(HashMap<K,V> map, Node<K,V>[] tab, boolean movable) {

    int n;

    if (tab == null || (n = tab.length) == 0)

        return;

    int index = (n - 1) & hash;

    TreeNode<K,V> first = (TreeNode<K,V>)tab[index], root = first, rl;

    TreeNode<K,V> succ = (TreeNode<K,V>)next, pred = prev;

    if (pred == null)  tab[index] = first = succ;

    else  pred.next = succ;

    if (succ != null)   succ.prev = pred;

    if (first == nullreturn;

    if (root.parent != null)   root = root.root();

    if (root == null || root.right == null ||

        (rl = root.left) == null || rl.left == null) {

        tab[index] = first.untreeify(map)// too small

        return;

    }

    TreeNode<K,V> p = this, pl = left, pr = right, replacement;

    if (pl != null && pr != null) {

        TreeNode<K,V> s = pr, sl;

        while ((sl = s.left) != null) // find successor

            s = sl;

        boolean c = s.red; s.red = p.red; p.red = c; // swap colors

        TreeNode<K,V> sr = s.right;

        TreeNode<K,V> pp = p.parent;

        if (s == pr) { // p was s's direct parent

            p.parent = s;

            s.right = p;

        }

        else {

            TreeNode<K,V> sp = s.parent;

            if ((p.parent = sp) != null) {

                if (s == sp.left)     sp.left = p;

                else   sp.right = p;

            }

            if ((s.right = pr) != null)     pr.parent = s;

        }

        p.left = null;

        if ((p.right = sr) != null)    sr.parent = p;

        if ((s.left = pl) != null)     pl.parent = s;

        if ((s.parent = pp) == null)      root = s;

        else if (p == pp.left)    pp.left = s;

        else    pp.right = s;

        if (sr != null)   replacement = sr;

        else   replacement = p;

    }

    else if (pl != null)   replacement = pl;

    else if (pr != null)  replacement = pr;

    else   replacement = p;

    if (replacement != p) {

        TreeNode<K,V> pp = replacement.parent = p.parent;

        if (pp == null)     root = replacement;

        else if (p == pp.left)    pp.left = replacement;

        else  pp.right = replacement;

        p.left = p.right = p.parent = null;

    }

    TreeNode<K,V> r = p.red ? root : balanceDeletion(root, replacement);

    if (replacement == p) {  // detach

        TreeNode<K,V> pp = p.parent;

        p.parent = null;

        if (pp != null) {

            if (p == pp.left)

                pp.left = null;

            else if (p == pp.right)

                pp.right = null;

        }

    }

    if (movable)

        moveRootToFront(tab, r);

}

猜你喜欢

转载自blog.csdn.net/qq_34190023/article/details/80879390