数据结构与算法——散列表(上)

散列表(Hash table, 也叫哈希表),是根据关键码值(Key value)而直接进行访问的数据结构。

首先先简单了解一下散列表这种数据机构,散列表用的是数组支持按照下标随机访问数据的特性,所以散列表其实就是数组的一种扩展,由数组演化而来的。可以说,如果没有数组,就没有散列表。

这里举一个例子:假如我们有89名选手参加学校运动会。为了方便记录成绩,每个选手胸前都会贴上自己的参赛号码。这89名选手的编号依次是1到89。选择我们希望编程实现这样一个功能,通过编号快速找到对应的选手信息。我们可以把这89名选手的信息放在数组里。编号为1的选手,我们放到数组中下标为1的位置;编号为2的选手,我们放到数组中下标为2的位置。以此类推,编号为k的选手放到数组中下标为k的位置。因为参赛编号跟数组下标一一对应,当我们需要查询参赛编号为x的选手的时候,我们只需要将下标为x的数组元素取出来就可以了,时间复杂度就是O(1)。

其实这个例子中就蕴含着一点散列思想,其中参数选手的编号我们叫作键(key)或者关键字。我们用它来标识一个选手。我们把参赛编号转化为数组下标的映射方法就叫作散列函数(或哈希函数),而散列还是计算得到的值就叫作散列值(或哈希值)

Key

Hash function

Table

“050306”

Hash(key)

0

“030909”

1

“030817”

2

“060402”

...

“070428”

n

因此,做以总结:散列表用的就是数组支持按照下标随机访问的时候,时间复杂度是O(1)的特性。我们通过散列函数把元素的键值映射为下标,然后将数据存储在数组中对应下标的位置。当我们按照键值查找元素的时候,我们用同样的散列函数,将键值转化为数组下标,从对应的数组下标的位置取数据进行比对。

散列函数

散列函数,顾名思义,它是一个函数。我们可以把它定义成hash(key),其中key表示元素的键值,hash(key)的值表示经过散列函数计算得到的散列值。在第一个例子当中,选手的编号本身就是数组的下标,所以hash(key)就等于key。当然这个例子当中的散列函数比较简单,也比较容易想到。但是,如果参赛选手的编号是随机生成的6位数字,又或者用的是a到z直接的字符串,该如何构造散列函数呢?这里总结了三点散列函数设计的基本要求:

  • 散列函数计算得到的散列值是一个非负整数
  • 如果key1=key2,那hash(key1)==hash(key2)
  • 如果key1≠key2,那hash(key1)≠hash(key2)

下面解释一下这三点,第一点很容易理解,由于散列函数返回的散列值代表的是散列表中的下标,数组中的下标是从0开始的,所以散列函数生成的散列值也要是非负整数;第二点也很好理解,相同的key,经过散列函数得到的散列值也应该是相同的。第三点这里重点分析一下,当两个不同的key,经过散列函数得到的散列值是不同的,这一点虽然看起来合情合理,即不同的key值与散列值一一对应,但是在真实的情况下,要想找到一个不同的key对应的散列值都不一样的散列函数,几乎是不可能的。即便像业界著名的MD5、SHA、CRC等哈希算法,也无法完全避免这种散列冲突。而且,因为数组存储的空间有限,也会加大散列冲突的概率。

这里先给出一个比较简单的散列函数:

// 对于键值为字符串的情况,我们采取一种将字符串中字符的ASCII码加起来作为我们的新Key
// 然后直接返回:Key mod tableSize
// 对于这种方法,需要注意的是,保证表的大小为素数(减少散列冲突的概率)
int hash(const string &key, int tableSize)
{
    int hashVal = 0;

    for (char ch : key)
        hashVal += ch;
    
    return hashVal % tableSize;
}

 再给出一个比较好的散列函数:

// 字符串对象的散列函数
 
unsigned hash(const string &key, int tableSize)
{
    unsigned hashVal = 0;

    for (char ch : key)
        hashVal = 37 * hashVal + ch;
    
    return hashVal % tableSize;
}

这个散列函数涉及到关键字中的所有字符,并且一般可以分别的很好(它计算\sum Key[KeySize-i-1]*37^{i}, i \epsilon [0, KeySize-1],并将结果限制在适当的范围),程序根据Horner法则计算一个(37)多项式函数。例如,计算h_{k}=k_{0}+37k_{1}+37^{2}k_{2} 的另一种方式是借助公式h_{k}=((k_{2})*37+k_{1})*37+k_{0} 进行。Horner法则将其扩展到用于n次多项式。

散列冲突

再好的散列函数也无法避免散列冲突。那我们应该如何解决散列冲突的问题呢?这里提供了两种常见的散列冲突解决方法,开放寻址法(open addressing)和链表法(chaining)。

  • 开放寻址法

开放寻址法的核心思想是,如果出现了散列冲突,我们就重新探测一个空闲位置,将其插入。那如何重新探测新的位置呢?这里先介绍一种比较简单的探测方法,线性探测(Linear Probing)

当我们往散列表中插入数据时,如果某个数据经过散列函数散列之后,存储位置已经被占用了,我们就从当前位置开始,依次往后查找,看是否有空闲位置,直到找到为止。在散列表中查找元素的过程有点类似插入过程。我们通过散列函数求出要查找元素的键值对应的散列值,然后比较数组中下标为散列值的元素和要查找的元素。如果相等,则说明就是我们要找的元素;否则就顺序往后依次查找。如果遍历到数组中的空闲为止,还没有找到就说明要查找的元素并没有在散列表中。散列表跟数组一样,不仅支持插入、查找操作,还支持删除操作。对于使用线性探测法解决冲突的散列表,删除操作稍微有些区别。我们不能单纯的把要删除的元素设置为空。这是因为我们通过在线性探测的方法在查找元素的时候,找到一个空闲位置,我们就认定散列表中不存在这个数据。但是如果这个空闲位置是我们后来删除的,就会导致原来的查找算法失效。采取的解决思路是,将删除的元素,特殊标记为deleted。当线性探测查找的时候,遇到标记为deleted的空间,并不是停下来,而是继续往下探测。说到这里,我们可能已经发现,线性探测这种方法存在着很大的问题。当散列表中插入的数据越来越多的时候,散列冲突发生的可能性就会越来越大,线性探测的时间就会越来越久。极端情况下,我们可能需要探测整个散列表,所以最坏情况下的时间复杂度为O(n)。同理,在删除和查找的时候,也有可能会线性探测整张散列表,才能找到要查找或者删除的数据。

对于开放寻址冲突解决方法,除了线性探测方法之外,还有另外两种比较经典的探测方法,二次探测(Quadratic Probing)和双重散列(Double Hashing)。

所谓二次探测,跟线性探测很像,线性探测每次探测的步长是1,那它探测的下标序列就是hash(key)+0,hash(key)+1,hash(key)+2......而二次探测探测的步长就变成了原来的二次方,也就是说,它探测的下标序列就是hash(key)+0,hash(key)+1²,hash(key)+2²......

所谓双重散列,意思就是不仅要使用一个散列函数。我们使用一组散列函数hash1(key),hash2(key)......我们先用第一个散列函数,如果计算得到的存储位置已经被占用,再用第二个散列函数,依此类推,直到找到空闲的存储位置。

不管采用哪种探测方法,当散列表中空闲位置不多的时候,散列冲突的概率就会大大提高。为了尽可能保证散列表的操作效率,一般情况下,我们会尽可能保证散列表中有一定比例的空闲槽位。我们用装载因子(load factor)来表示空位的多少。

装载因子的计算公式:

散列表的装载因子 = 填入表中的元素个数 / 散列表的长度

装载因子越大,说明空闲位置越少,冲突越多,散列表的性能会下降。

  • 链表法

链表法是一种更加常用的散列冲突解决方法,相比开放寻址法,它要简单很多。我们来看这个图,在散列表中,每个"桶(bucket)"或者“槽(slot)”会对应一条链表,所有散列值相同的元素我们都放到相同槽位对应的链表中。

 

0

key1/value1

key2/value2

key3/value3

 

1

NULL

 

 

 

 

 

2

key4/value4

key5/value5

 

 

hash(key)

3

NULL

 

 

 

 

 

...

...

 

 

 

 

 

 

n-1

key6/value6

 

 

 

 

 

n

NULL

 

 

 

 

当插入的时候,我们只需要通过散列函数计算出对应的散列槽位,将其插入到对应链表中即可,所以插入的时间复杂度是O(1)。当查找、删除一个元素时,我们同样通过散列函数计算出对应的槽位,然后遍历链表查找或者删除。那查找与删除的时间复杂度为多少呢?实际上,这两个操作的时间复杂度与链表的长度k成正比,也就是O(k)。对于散列比较均匀的散列函数来说,理论上讲,k=n/m,其中n表示散列表中数据的个数,m表示散列表中"槽"的个数。

散列表的简单应用

  • 用散列表实现Word文档中单词拼写检查功能

常用的英文单词有20万个左右,假设单词的平均长度是10个字母,平均一个单词占用10个字节的内存空间,那20万英文单词大约占2MB空间,就算放大10倍也就是20MB。对于限制的计算机来说,这个大小完全可以放在内存里面。所以我们可以用散列表来存储整个英文单词词典。

当用户输入某个英文单词的时候,我们拿用户输入的单词去散列表中查找。如果查找到,则说明拼写正确;如果没有查找到,则说明拼写可能有误,给与提示。借助散列表这种数据结构,我们就可以轻松实现快速判断是否存在拼写错误的情况。

  • 用散列表给10万条URL访问日志,按照访问次数给URL排序

首先遍历10万条URL访问日志,以URL为key,访问次数为value,存入散列表,同时记录访问次数的最大值,时间复杂度为O(N)。如果K不是很大,我们可以采用桶排序,遍历散列表将URL放入各桶中,时间复杂度为O(n)。如果K非常大,就使用快速排序,时间复杂度O(nlogn)。

  • 用散列表快速找出两个字符串数组(包含10万条字符串)中相同的字符串

以第一个字符串数组构建散列表,key为字符串,value为出现的次数。在依次遍历第二个字符串数组,以字符串为key在散列表中查找,如果value大于0,说明存在相同字符串,时间复杂度O(n)。

工业级水平的散列表

根据前面我们知道,散列表的查询效率并不能笼统地说成是O(1)。它跟散列函数、装载因子、散列冲突等都有关系。如果散列函数设计的不好或者装载因子过高,都可能导致散列冲突发生的概率升高,查询效率下降。

在极端情况下,有些恶意的攻击者,还有可能通过精心构造的数据,使得所有的数据经过散列函数之后,都散列到同一个槽里。如果我们用的是基于链表的冲突解决方法,那这个时候,散列表就会退化为链表,查询时间复杂度就从O(1)急剧退化成为O(n)。

如果散列表中有10万个数据,退化后的散列表查询效率就下降了10万倍。更直接点说,如果之前运行100次查询只需要0.1秒,那现在就需要1万秒。这样就有可能因为查询操作消耗大量CPU或者线程资源,导致系统无法相应其他请求,从而达到拒绝服务攻击(DoS)的目的。这也就是散列表碰撞攻击的基本原理。

散列函数的设计

散列函数设计的好坏,决定了散列表冲突的概率大小,也直接决定了散列表的性能。下面给出两点评判散列表的标准:

  • 首先,散列表的设计不能太复杂。过于复杂度散列函数,势必会消耗很多计算时间,也就是间接影响到散列表的性能。
  • 其次,散列函数生成的值尽可能随机并且均匀分布,这样才能避免或者最小化散列冲突,而且即便出现冲突,散列到每个槽里数据也会比较平均,不会出现某个槽内数据特别多的情况。

实际工作中,我们还需要综合考虑各种因素。这些因素有关键字的长度、特点、分布、还有散列表的大小等。散列函数各式各样,这里举几个常用的、简单的散列函数的设计方法,以便有更加直观的感受。比如班上同学的学号(2016240206),我们通过观察数据特征,发现学号的前几位重复的概率很大,但是后两位就比较均匀,因此我们取学号的后两位作为散列值。这种散列函数的设计方法,我们叫作"数据分析法"。还有之前的Word拼写检查功能,这里的散列函数我们就可以设计为,将单词中每个字母的ASCII码值“进位”相加,然后再跟散列表的大小求余、取模,作为散列值。比如英文单词nice,我们转化出来的散列值就是下面这样的:

hash("nice") = (('n' - 'a') * 26 * 26 * 26 + ('i' - 'a') * 26 * 26 + ('c' - 'a') * 26 + ('e' - 'a')) / 78978

实际上,散列函数的设计方法还有很多,比如直接寻址法、平方取中法、折叠法、随机数法等。

装载因子的控制

之前了解到,装载因子反应的是散列表的空闲程度,如果装载因子越大,说明散列表中元素越多,空闲位置越少,散列冲突的概率就越大。不仅插入数据的过程要多次寻址或者拉很长的链,查找的过程也会因此变得很慢。对于没有频繁插入和删除的静态数据集合来说,我们很容易根据数据的特点、分布等,设计出完美的、极少冲突的散列函数,因为毕竟之前的数据都是已知的。

对于动态散列表来说,数据集合是频繁变动的,我们事先无法预估将要加入的数据个数,所有我们也无法事先申请一个足够大的散列表。随着数据慢慢加入,装载因子就会慢慢变大。当装载因子大到一定程度之后,散列冲突就会变得不可接受。这个时候,我们可以通过动态扩容,重新申请一个更大的散列表,将数据搬移到这个新散列表中。假设每次扩容我们都申请一个原来散列表大小两倍的空间,如果原来散列表的装载因子是0.8,那经过扩容之后,新散列表的装载因子就下降为原来的一半,变成了0.4。

针对数组的扩容,数据搬移操作比较简单。但是针对散列表的扩容,数据搬移操作要复杂很多。因为散列表的大小变了,数据的存储位置也变了,所以我们需要通过散列函数重新计算每个数据的存储位置。对于支持动态扩容的散列表,插入的时间复杂度在最好的情况下是O(1)。最坏情况下,散列表装载因子过高,启动扩容,我们需要重新申请内存空间,重新计算散列位置,并且搬移数据,所以时间复杂度是O(n)。用摊还分析法,均摊情况下,时间复杂度接近最好情况,也就是O(1)。

  • 如何避免低效的扩容?

虽然我们分析出均摊情况下动态散列表的插入操作时间复杂度为O(1),但是在极端的情况下仍然会出现十分耗时的扩容操作,举一个极端的例子,如果当前散列表的大小为1GB,若进行扩容操作,那就需要申请2GB的内存空间,并且对1GB的数据重新计算散列值,并且从原来的散列表搬移到新的散列表,听起来就很耗时。如果我们的业务代码直接服务于用户,尽管大部分情况下,插入一个数据的操作都很快,但是,极个别非常慢的插入操作,也会让用户崩溃。这个时候,“一次性”扩容的机制就不在合适了。所以为了解决一次性扩容耗时过多的情况,我们可以将扩容操作穿插在插入操作的过程中,分批完成。当装载因子触达阈值之后,我们只申请新空间,但不将老的数据搬移到新散列表中。当有新数据要插入时,我们将新数据插入到新散列表中,并且从老的散列表中拿出一个数据放入到新散列表。每次插入一个数据到散列表,我们都重复上面的过程。经过多次插入操作之后,老的散列表中的数据就一点一点全部搬移到新散列表中了。这样没有了集中的一次性数据搬移,插入操作就变得很快了。期间,查询删除操作为了兼容新、老散列表中的数据,我们先从新散列表中查找,如果没有找到,再去老的散列表中查找。通过这样均摊的方法,将一次性扩容的代价,均摊到多次插入操作中,就避免了一次性扩容耗时过多的情况。这种实现方式,任何情况下,插入一个数据的时间复杂度都是O(1)。

 

 

 

 

 

 

 

 

 

 

 

 

10

10

 

 

 

 

 

9

 

 

 

 

 

 

21

 

 

21

 

21

 

 

 

 

 

 

9

 

9

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

33

 

33

 

33

12

55

 

55

 

55

 

扩容但不搬移数据

插入10并搬移21

插入12并搬移9

实际上,对于动态的散列表,随着数据的删除,散列表中的数据会越来越少,空闲空间会越来越多。如果我们对空间消耗非常敏感,我们可以在装载因子小于某个值之后,启动动态缩容。当前,如果我们更在意执行效率,能够容忍多消耗一点内存空间,那就不必动态缩容了。

  • 装载因子阈值的设置

我们前面说过,当散列表的装载因子超过某个阈值时,就需要进行扩容。装载因子阈值需要选择得当。如果太大,会导致冲突过多;如果太小,会导致浪费严重。装载因子阈值的设计要衡量、空间复杂度。如果内存空间不紧张,对执行效率要求很高,可以降低装载因子的阈值;相反,如果内存空间紧张,对执行效率要求又不高,可以增加装载因子的值,甚至可以大于1。

如何选择冲突方法?

首先先分析开放寻址法与链表法各自的优缺点:

  • 开放寻址法

优点:开放寻址法不像链表法,需要拉很多链表。散列表中的数据都存储在数组中,可以有效的利用CPU缓存加快查询速度。而且,这种方法实现的散列表,序列化起来比较简单。链表法包含指针,序列化起来就没那么容易。序列化在很多场合都会用到,这一点很重要。后面我们会逐步了解数据结构的序列化、如何序列化、为什么要序列化等一系列问题。

缺点:使用开放寻址法解决冲突的散列表,删除数据的时候比较麻烦,需要特殊标记已经删掉的数据。而且,在开放寻址法中,所有的数据都存储在一个数组中,比起链表法来说,冲突的代价更高。所以,使用开放寻址法解决冲突的散列表,装载因子的上限不能太大。这也导致这种方法比链表法更浪费内存空间。

总结:当数据量小,装载因子小的时候,适合采用开放寻址法。这也是Java中的ThreadLocalMap使用开放寻址法解决散列冲突的原因。

  • 链表法

优点:首先链表法对内存的利用率比开放寻址法要高。因为链表结点可以在需要的时候再创建,并不需要像开放寻址那样事先申请好。实际上,这一点在之前链表与数组对比的时候,我们已经了解到了。链表法比起开放寻址法,对大装载因子的容忍度更高。开放寻址法只能适用于装载因子小于1的情况。接近1时,就会有大量的散列冲突,导致大量的探测、再散列等,性能会下降很多。但是对于链表法来说,只要散列函数的值随机均匀,即便装载因子变成10,无非也就是链表的长度变长了而已,虽然查找效率有所下降,但是比起顺序查找还是快很多。

缺点:由于链表自身的缺点,链表因为要存储指针,所以对于比较小的对象的存储,是比较消耗内存的,还有可能会让内存的消耗翻倍。而且,因为链表中的结点是零散分布在内存中的,不是连续的,所以对CPU缓存是不友好的,这方面对于执行效率也有一定的影响。

实际上,如果我们存储的是大对象,也就是说要存储的对象的大小远远大于一个指针的大小(4字节或8字节),那链表中指针的内存消耗在大对象面前就可以忽略了。实际上,我们对链表法稍加改造,可以实现一个更加高效的散列表。那就是,我们将链表法中的链表改造为其他高效的动态数据结构,比如跳表、红黑树。这样,即便出现散列冲突,极端情况下,所有的数据都散列到同一个桶内,那最终退化成的散列表的查找实际也只不过是O(logn)。这样也就有效的避免了前面讲到的散列碰撞攻击。

总结:基于链表的散列冲突方法比较适合存储大对象、大数据量的散列表,而且,比起开放寻址法,它更加灵活,支持更多的优化策略,比如用红黑树代替链表。

工业级散列表举例

在Java中的HashMap就是这样一个工业级的散列表,下面对其具体分析:

  • 初始大小

HashMap默认的初始大小是16,当然这个默认值是可以设置的,如果事先知道大概的数据量有多大,可以通过修改默认初始大小,减少动态扩容的次数,这样会大大提高HashMap的性能。

  • 装载因子和动态扩容

最大装载因子的默认是0.75,当HashMap中元素个数超过0.75*capacity的时候,就会启动扩容,每次扩容都会扩容为原来的两倍大小。

  • 散列冲突解决方法

HashMap底层采用链表法来解决冲突。即使负载因子和散列函数设计的再合理,也免不了会出现拉链过长的情况,一旦出现拉链过长,则会严重影响HashMap的性能。于是,在JDK1.8版本中,为了对HashMap做进一步优化,引入了红黑树。当链表长度太长(默认超过8)的时候,链表就转换位红黑树。我们可以利用红黑树快速增删改查的特点,提高HashMap的性能。当红黑树结点个数少于8个的时候,又会将红黑树转化为链表。因为在数据量较小的情况下,红黑树要维护平衡,比起链表来说,性能上的优势并不明显。

  • 散列函数

散列函数的设计并不复杂,追求的是简单高效、分布均匀。下面是其代码:

int hash(Object key)
{
    int h = key.hashCode();
    return (h ^ (h >>> 16)) & (capitity - 1)    // capitity表示散列表的大小
}

其中,hashCode()返回的是Java对象的hashcode。比如String类型的对象的hashCode()就是下面这样:

public int hashCode()
{
    int var1 = this.hash;
    if (var1 == 0 && this.value.length > 0)
    { 
        char var2[] = this.value;
        for (int var3 = 0; var3 < this.value.length; ++var3)
            var = 31 * var1 + var2[var3]; 
        this.hash = var1;
    }
    return var1;
}

总结:一个工业级的散列表应该具备的特性:

  • 支持快速的查询、插入、删除操作
  • 内存占用合理,不能浪费过多的内存空间
  • 性能稳定,极端情况下,散列表的性能也不会退化到无法接受的情况

总结:如何实现一个工业级的散列表:

  • 设计一个合适的散列函数
  • 定义装载因子阈值,并且设计动态扩容策略
  • 选择合适的散列冲突解决方法

猜你喜欢

转载自blog.csdn.net/weixin_42570248/article/details/88537851