HashMap的6个知识点

HashMap的6个知识点:

1.    HashMap概述:

   HashMap是key-value数据结构,是基于哈希表的Map接口的非同步实现。此实现提供所有可选的映射操作,并允许key和value为null。此类不保证映射的顺序,特别是它不保证该顺序恒久不变。

 

2.    HashMap的数据结构:

   HashMap实际上是一个“散列表”的数据结构,即数组和链表的结合体。在JDK8中HashMap的底层是:数组+链表+红黑树

注:并不是HashMap存储数据的Entry数组上某个桶的链表有8个元素的时候它就能变成红黑树,它得同时满足散列表的总容量大于64的时候才能触发变成红黑树。

3.    HashMap的读取实现:

HashMap存储数据使用put()方法,该方法首先会将调用String的 hashCode() 方法得到其 hashCode 值——每个 Java 对象都有 hashCode() 方法,都可通过该方法获得它的 hashCode 值。得到这个对象的 hashCode 值之后,系统会根据该 hashCode 值来决定该元素的存储位置。如果该位置已经存在key值,则发生哈希冲突。

How:HashMap怎样解决哈希冲突?

链地址法:就是在冲突的位置上新建一个链表,然后将冲突的元素插入到链表尾端。

当HashMap调用get()方法获取value时,首先会根据key的hashcode()值到相应的Entry数组位置上,再如果只有一个key直接返回value,如果该数组位置存在链表维护多个key,则再使用equals(key)来获取相应的value值。

扫描二维码关注公众号,回复: 1099092 查看本文章
HashMap的4种遍历方式


4.    HashMapresizerehash):

   HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,因为数组的长度是固定的。所以为了提高查询的效率,就要对HashMap的数组进行扩容,数组扩容这个操作也会出现在ArrayList中,这是一个常用的操作,而在HashMap数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是resize

 What:  那么HashMap什么时候进行扩容呢?

HashMap中的元素个数超过数组大小*loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小为16,那么当HashMap中元素个数超过16*0.75=12的时候,就把数组的大小扩展为 2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。


5.    HashMap的性能参数:

   HashMap 包含如下4个构造器:

   HashMap():构建一个初始容量为 16,负载因子为 0.75 HashMap

   HashMap(int initialCapacity):构建一个初始容量为 initialCapacity,负载因子为 0.75 HashMap

   HashMap(int initialCapacity, float loadFactor):以指定初始容量、指定的负载因子创建一个 HashMap

   HashMap(Map< ? extends K,? extends V>m):用相同的映射构造一个新的HashMap指定HashMap 默认负载因子(0.75)和足够的初始容量在指定的中保存映射。

public HashMap() {
    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(int initialCapacity) {
    this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
    if (initialCapacity < 0)
        throw new IllegalArgumentException("Illegal initial capacity: " +
                                           initialCapacity);
    if (initialCapacity > MAXIMUM_CAPACITY)
        initialCapacity = MAXIMUM_CAPACITY;
    if (loadFactor <= 0 || Float.isNaN(loadFactor))
        throw new IllegalArgumentException("Illegal load factor: " +
                                           loadFactor);
    this.loadFactor = loadFactor;
    this.threshold = tableSizeFor(initialCapacity);
}

public HashMap(Map<? extends K, ? extends V> m) {
    this.loadFactor = DEFAULT_LOAD_FACTOR;
    putMapEntries(m, false);
}

   HashMap的基础构造器HashMap(int initialCapacity, float loadFactor)带有两个参数,它们是初始容量initialCapacity和加载因子loadFactor

   initialCapacityHashMap的最大容量,即为底层数组的长度。

   loadFactor:负载因子loadFactor定义为:散列表的实际元素数目(n)/ 散列表的容量(m)

   负载因子衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来说,查找一个元素的平均时间是O(1+a),因此如果负载因子越大,对空间的利用更充分,然而后果是查找效率的降低;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。

6.    Fail-Fast机制:

   我们知道java.util.HashMap不是线程安全的,因此如果在使用迭代器的过程中有其他线程修改了map,那么将抛出ConcurrentModificationException,这就是所谓fail-fast策略。

   这一策略在源码中的实现是通过modCount域,modCount顾名思义就是修改次数,对HashMap内容的修改都将增加这个值,那么在迭代器初始化过程中会将这个值赋给迭代器的expectedModCount

由所有HashMap类的“collection 视图方法所返回的迭代器都是快速失败的:在迭代器创建之后,如果从结构上对映射进行修改,除非通过迭代器本身的 remove 方法,其他任何时间任何方式的修改,迭代器都将抛出 ConcurrentModificationException。因此,面对并发的修改,迭代器很快就会完全失败,而不冒在将来不确定的时间发生任意不确定行为的风险。

   注意:迭代器的快速失败行为不能得到保证,一般来说,存在非同步的并发修改时,不可能作出任何坚决的保证。快速失败迭代器尽最大努力抛出 ConcurrentModificationException。因此,编写依赖于此异常的程序的做法是错误的,正确做法是:迭代器的快速失败行为应该仅用于检测程序错误。


我的座右铭:不会,我可以学;落后,我可以追赶;跌倒,我可以站起来;我一定行。



猜你喜欢

转载自blog.csdn.net/weixin_39220472/article/details/80459364
今日推荐