C++ 哈希思想 unordered_set unordered_map

哈希思想

抽象感受哈希的优点
如果我现在抛出一个问题:4 对映 do、re、mi、fa、sol、la、si 的哪个音 , 没学过音乐的人应该在一个一个数过去,发现对应fa ,并且如果问题不以文字的形式抛出,可能还会默念4个音然后确定。 对于学过音乐的人来说,他们会瞬间反应出,这是因为 我是一个一个数过去的,而熟悉的人在4 和 fa 之间建立了“映射”。

什么是哈希思想?
哈希思想是一种常用的计算机算法思想,用于将任意长度的数据映射为固定长度的哈希值。它的核心思想是通过哈希函数将输入数据转换为一个唯一的、固定长度的哈希值,该哈希值可以用于快速查找、比较和验证数据。

在这里插入图片描述

哈希优点怎么样体现?
将熟悉的几种数据结构对比:
顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O( l o g 2 N log_2 N log2N),搜索的效率取决于搜索过程中元素的比较次数。

理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素

什么是哈希(散列)方法?(具体实现哈希思想)
插入元素:
根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放。
搜索元素:
对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功

什么是哈希函数?
哈希函数是哈希思想的关键部分,它接受任意长度的输入数据,经过计算后生成一个固定长度的哈希值。
哈希函数设置为:hash(key) = key % capacity;
key已经被hashfunc转化过,hash(key)为最终值
capacity为存储元素底层空间总的大小

什么是哈希表?
利用哈希方法构造出来的结构称为哈希表(Hash Table)

什么是哈希冲突?
不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。

哈希的设计原则?
1.哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间
2.对于不同的输入数据,哈希函数应该尽可能均匀地分布哈希值,以减少冲突的可能性。
3.哈希函数应该比较简单(指哈希函数本身效率高)

常用的哈希函数

哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突

  1. 直接定址法–(常用)
    取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B
    优点:简单、均匀
    缺点:需要事先知道关键字的分布情况
    使用场景:适合查找比较小且连续的情况

  2. 除留余数法–(常用)
    设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址

其他:
3.平方取中法
4.折叠法
5.随机数法
6.数学分析法

哈希冲突解决方案

解决哈希冲突两种常见的方法是:闭散列和开散列

闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去

线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。

删除:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。

开散列:开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中

哈希代码实现(C++ 源码)

语法和基本逻辑的分析于代码的注释中。
在.h文件中,闭散列方法的实现:

#pragma once
#include <vector>
#include<iostream>
using namespace std;

namespace My_Hash
{
    
    
	enum State
	{
    
    
		EMPTY,
		EXITS,
		DELETE
	};

	template<class K, class V>
	struct HashData
	{
    
    
		pair<K, V> _kv;
		State _state;
	};


	//Hashfunc是用来确定不同形式Key的值,例如Key为字符串时就调用写的这个仿函数
	template<class K, class V, class HashFunc = DefaultHash<K>>
	class HashTable
	{
    
    
		typedef HashData<K, V> Data;

	private:

		vector<HashData<K, V>> _tables;
		//有效值的数量
		size_t _n = 0;

	public:
		//Insert函数主要关注点 : 哈希冲突 负载因子 扩容  
		bool Insert(const pair<K, V> kv)
		{
    
    
			if (Find(kv.first) != nullptr)
			{
    
    
				return false;
			}

			//哈希因子大于0.7需要重新建表
			//注意是对size()而不是对capcity();
			if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7)
			{
    
    
				size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
				HashTable<K, V> newHT;
				newHT._tables.resize(newSize);

				for (auto& e : _tables)
				{
    
    
					if (e._state == EXITS)
					{
    
    
						newHT.Insert(e._kv);
					}
				}
				//  ? ? ?  将本对象的_tables与新建对象的_tables交换了
				// swap(newHT->_tables , _tables)
				newHT._tables.swap(_tables);
			}

			//仿函数
			HashFunc hf;

			size_t starti = hf(kv.first);
			starti %= _tables.size();
			size_t hashi = starti;
			size_t i = 1;

			// 线性探测 
			//为什么不自动补全
			while (_tables[hashi]._state == EXITS)
			{
    
    
				hashi = starti + i;
				++i;
				// 防止超出vector长度
				hashi %= _tables.size();
			}

			_tables[hashi]._kv = kv;
			_tables[hashi]._state = EXITS;
			_n++;
			return true;
		}

		Data* Find(const K& key)
		{
    
    
			if (_tables.size() == 0)
			{
    
    
				return nullptr;
			}

			HashFunc hf;

			size_t strati = hf(key);
			strati %= _tables.size();
			size_t hashi = strati;
			size_t i = 1;

			//while (_tables[hashi].state != EMPTY && _tables[hashi].state != DELETE) 错误的
			while (_tables[hashi]._state != EMPTY)
			{
    
    
				//!!!!!!!! 1.注意是判K。 2.注意跳DELETE
				if (_tables[hashi]._kv.first == key && _tables[hashi]._state != DELETE)
				{
    
    
					return &_tables[hashi];
				}

				//为啥这样写呢??????又是i又是hashi的
				//似乎是为了方便改写为二次探测
				//二次探测:下标依次+1、+2、+4、+8、……的方法,为了防止哈希冲突在某一块堆积,影响效率的方法。
				//二次探测: hashi = strati + i * i ; 如果要改成这种,插入函数也要改,这种方式只做了解。

				hashi = strati + i;
				++i;
				hashi %= _tables.size();
			}
			return nullptr;
		}

		bool Erase(const K& key)
		{
    
    
			Data* ret = Find(key);

			if (ret != nullptr)
			{
    
    
				ret->_state = DELETE;
				--_n;
				return true;
			}
			else
			{
    
    
				return false;
			}
		}

		
	};

	struct StringHash
	{
    
    
		//仿函数 string为key时比较方法
		size_t operator()(const string& key)
		{
    
    
			size_t hash = 0;
			for (auto ch : key)
			{
    
    
				//BKDR
				hash = hash * 131 + ch;
				//如果直接把字符串中所有的字符的ASCII码值相加可能会出现同值,但此字符串不同的情况
				//如 "abcde" 与 "ccccc" 两字符串,最终在此仿函数的返回值不会相同
			}
			return hash;
		}
	};

	template<class K>
	struct DefaultHash
	{
    
    
		size_t operator()(const K& key)
		{
    
    
			return (size_t)key;
		}
	};

	//C++11之后,可以用template<>来定义模板的具体实现
	//也就是模板特化相关的知识
	template<>
	struct DefaultHash<string>
	{
    
    
		size_t operator()(const string& key)
		{
    
    
			size_t hash = 0;
			for (auto e : key)
			{
    
    
				hash = hash * 131 + e;
			}
			return hash;
		}
	};

}

unordered_set & unordered_map 容器

概念介绍:
在C++98中,STL提供了底层为红黑树结构的一系列关联式容器,在查询时效率可达到 l o g 2 N log_2 N log2N,即最差情况下需要比较红黑树的高度次,当树中的节点非常多时,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在C++11中,STL又提供了4个unordered系列的关联式容器

unordered_set和unordered_map是标准库中提供的容器,它们基于哈希表实现,用于存储和管理数据。

unordered_set是一个无序的集合容器,其中的元素是唯一的且无序的。它使用哈希函数将元素映射到桶(bucket)中,并使用链表或红黑树来解决哈希冲突(后面模拟实现本文用链表)。由于哈希表的特性,unordered_set提供了高效的元素查找、插入和删除操作,平均时间复杂度为常数。

unordered_map是一个无序的键值对容器,其中的键是唯一的且无序的。它使用哈希函数将键映射到桶中,并使用链表或红黑树来解决哈希冲突。unordered_map提供了高效的键值对的查找、插入和删除操作,平均时间复杂度为常数

unordered_set & unordered_map模拟实现(C++ 源码)

实现方式:开散列 链表
注意点:
语法层面:
1.仿函数运用
2.模板特化运用
3.指针控制(头插)
5.结构体(类)的嵌套问题
6.需要手写析构函数
框架层面:
1.质数标与扩容
2.要分为三个文件完成封装,分别为myHash.h、unordered_set.h、unordered_map.h
以下为myHash.h、文件中的代码:

#pragma once
#include <vector>
#include<iostream>
using namespace std;



//封装
namespace myHashBucket
{
    
    

	template<class T>
	struct HashNode
	{
    
    
		T _data;
		HashNode<T>* _next;

		HashNode(const T& data)
			:_data(data)
			, _next(nullptr)
		{
    
    }
	};

	
	//前置声明的作用是什么? ? ? ? ? 
	template<class K,class T,class KeyOfT,class HashFunc>
	class HashTable;

	//迭代器
	template<class K,class T, class KeyOfT,class HashFunc>
	class _HTIterator
	{
    
    
		typedef HashNode<T> Node;
		typedef _HTIterator<K, T, KeyOfT, HashFunc> Self;

	private: 
		Node* _node;
		HashTable<K, T, KeyOfT, HashFunc>* _pht;

	public:

		_HTIterator(Node* node, HashTable<K,T,KeyOfT,HashFunc>* pht)
			:_node(node)
			,_pht(pht)
		{
    
    }

		T& operator*()
		{
    
    
			return _node->_data;
		}

		Self& operator++()
		{
    
    
			if (_node->_next != nullptr)
			{
    
    
				return _node->_next;
			}
			else
			{
    
    
				KeyOfT kot;  //提取出key
				HashFunc hf; //使key可以转为整数比较
				size_t hashi = hf(kot(_node->_data)) % _pht->_tables.size();
				++hashi; 
				//找到下一个桶

				for (;hashi < _pht->_tables.size(); hashi++)
				{
    
    
					if (_pht->_tables[hashi] != nullptr)
					{
    
    
						_node = _pht->_tables[hashi];
						break;
					}
				}

				//没有不为空的桶,用nullptr作为end
				//没有不为空的桶则代表改结点为最后一个结点 ? ? ?
				//也就是说++ 是不是在_tables的vector中循环的,通俗的说加一圈不能回去……
				if (hashi == _pht->_tables.size())
				{
    
    
					_node = nullptr;
				}
			}
			//该类本身就是迭代器类型……
			return *this;
		}

		T* operator->() // ! ! ! ! !
		{
    
    
			return &_node->_data;
		}

		bool operator!=(const Self& s) const
		{
    
    
			return s._node != _node;
		}

		bool operator==(const Self& s) const
		{
    
    
			return s._node == _node;
		}

	};


	//template<class K, class V, class KeuOfT , class HashFunc = DefaultHash<K>> //为什么不用这样写了
	template<class K, class T, class KeyOfT, class HashFunc> 
	class HashTable
	{
    
     
		//是不是与前置声明有关????   // 是不是与两个类相互包含有关 ? ? ? ? ? 
		//这里声明友元为什么要这样写? ? ? ? ? // 带模板友元类的定义方法是? ? ? ? 
		template<class K,class T,class KeyOfT,class HashFunc> 
		friend class _HTIterator;

		//在此情况下这样定义友元会报错
		//friend class _HTIterator<class K, class T, class KeyOfT, class HashFunc>;

		typedef HashNode<T> Node;

		//我擦,这个还不能在私有里typedef //在私有里定义外部不能通过
		//typedef typename myHashBucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc>::iterator的方式访问
		//  
		/*typedef _HTIterator<K, T, KeyOfT, HashFunc> iterator;*/  //这个

	/*private:*/
	public:

		typedef _HTIterator<K, T, KeyOfT, HashFunc> iterator;

		vector<Node*> _tables;
		size_t _n = 0;

	public:

		iterator begin()
		{
    
    
			for (size_t i = 0; i < _tables.size();++i)
			{
    
    
				Node* cur = _tables[i];
				if (cur != nullptr)
				{
    
    
					//为什么可以传this? ? ? ? ? 因为this就是该对象的地址,符合iterator的参数
					return iterator(cur,this);
				}
			}
			//注意这里是调用了构造函数,不要和模板混淆了……
			return iterator(nullptr, this);
		}


		iterator end()
		{
    
    
			return iterator(nullptr, this);
		}



		~HashTable()
		{
    
    
			for (size_t i = 0; i < _tables.size(); i++)
			{
    
    
				Node* cur = _tables[i];

				while (cur != nullptr)
				{
    
    
					Node* next = cur->_next;
					delete cur;
					cur = next;
				}

				_tables[i] = nullptr;
			}
		}


		//bool Insert(const T& data)
		//{
    
    
		//	HashFunc hf;
		//	KeyOfT kot;

		//	if (Find(kot(data))
		//	{
    
    
		//		return false;
		//	}

		//	// 哈希桶法负载因子 == 1 时 扩容 ?
		//	//扩容的思路为:计算要新size的大小,创建一个新表,遍历旧表的元素,
		//	//并对遍历的有效元素调用insert函数进入新表。最后利用swap将新表换入。
		//	if (_tables.size() == _n)
		//	{
    
    
		//		size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
		//		HashTable<K, V > newHT;
		//		newHT._tables.resize(newSize, nullptr);

		//		for (size_t i = 0; i < _tables.size(); ++i)
		//		{
    
    
		//			Node* cur = _tables[i];
		//			while (cur != nullptr)
		//			{
    
    
		//				newHT.Insert(cur->_kv);
		//				cur = cur->_next;
		//			}
		//		}
		//		// !  !  !  !  ! 
		//		//newHT._tables 和 原_tables互换了代表的vector
		//		newHT._tables.swap(_tables);
		//	}

		//	//仿函数
		//	HashFunc hf;

		//	size_t hashi = hf(kv.first);
		//	hashi %= _tables.size();

		//	//用头插法入对应的桶
		//	//为啥不用尾插法?   // 因为那样还要遍历找到改桶的尾节点,影响效率
		//	// ! ! ! ! ! 注意new的使用
		//	Node* newnode = new Node(kv);
		//	newnode->_next = _tables[hashi];
		//	_tables[hashi] = newnode;

		//	++_n;
		//	return true;
		//}

		// !!!!!!!!!!!!!!!!!!!!!!!!1
		//质数表
		size_t GetNextPrime(size_t prime)
		{
    
    
			const int PRIMECOUNT = 28;
			static const size_t primeList[PRIMECOUNT] =
			{
    
    
				53ul, 97ul, 193ul, 389ul, 769ul,
				1543ul, 3079ul, 6151ul, 12289ul, 24593ul,
				49157ul, 98317ul, 196613ul, 393241ul, 786433ul,
				1572869ul, 3145739ul, 6291469ul, 12582917ul, 25165843ul,
				50331653ul, 100663319ul, 201326611ul, 402653189ul, 805306457ul,
				1610612741ul, 3221225473ul, 4294967291ul
			};

			// 获取比prime大那一个素数
			size_t i = 0;
			for (; i < PRIMECOUNT; ++i)
			{
    
    
				if (primeList[i] > prime)
					return primeList[i];
			}

			return primeList[i];
		}



		pair<iterator,bool> Insert(const T  & data)
		{
    
    
			HashFunc hf;
			KeyOfT kot;

			iterator pos = Find(kot(data));
			if (pos != end())
			{
    
    
				return make_pair(pos,false);
			}

			//负载因子为1时 扩容 
			if (_tables.size() == _n)
			{
    
    
				/*size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;*/
				size_t newSize = GetNextPrime(_tables.size());
				if(newSize != _tables.size())
				{
    
    
					vector<Node*> newTable;
					newTable.resize(newSize, nullptr);
					for (size_t i = 0; i < _tables.size(); ++i)
					{
    
    
						Node* cur = _tables[i];
						//这个写的有点巧妙,大概就是把原_tables桶里的每个结点依次头插入新_tables中。
						//! ! ! ! ! 
						while (cur != nullptr)
						{
    
    
							Node* next = cur->_next;

							size_t hashi = hf(kot(cur->_data)) % newSize;
							cur->_next = newTable[hashi];
							newTable[hashi] = cur;

							cur = next;
						}
						//i = size() 时 end
						_tables[i] = nullptr;
					}
					newTable.swap(_tables);
				}	
			}

			size_t hashi = hf(kot(data));
			hashi %= _tables.size();
			//头插
			Node* newnode = new Node(data);
			newnode->_next = _tables[hashi];
			_tables[hashi] = newnode;

			++_n;
			/*return true;*/
			return make_pair(iterator(newnode, this), false);
		}



		iterator Find(const K& key)
		{
    
    
			//为啥不这样写? ? ? ? ?
			/*if (_n == 0 )
			{
				return nullptr
			}*/
			if (_tables.size() == 0)
			{
    
    
				return iterator(nullptr,this);
			}

			//在此加仿函数……
			KeyOfT kot;
			HashFunc hf;
			//话说哈希桶有必要加这个仿函数吗?(个人思考)
			//对于开散列法,写仿函数使不同形式的key都可以转为整数从而在vector中找到对应位置
			//在哈希桶方法中也有这个需求,故还是要写仿函数.

			size_t hashi = hf(key);
			/*size_t hashi = key;*/
			hashi = hashi % _tables.size();
			Node* cur = _tables[hashi];

			while (cur != nullptr)
			{
    
    
				/*if(cur->_kv.first == key)*/
				if (kot(cur->_data) == key)
				{
    
    
					return iterator(cur,this);
				}
				cur = cur->_next;
			}
			return iterator(nullptr, this);
		}

		bool Erase(const K& key)
		{
    
    
			if (_tables.size() == 0)
			{
    
    
				return false;
			}

			HashFunc hf;
			KeyOfT kot;
			size_t hashi = hf(key);
			hashi %= _tables.size();

			//! ! ! ! !
			Node* prev = nullptr; //要记录前一个结点
			Node* cur = _tables[hashi];
			while (cur != nullptr)
			{
    
    
				if (kot(cur->_data) == key)
				{
    
    
					if (prev == nullptr)
					{
    
    
						_tables[hashi] = cur->_next;
					}
					else
					{
    
    
						prev->_next = cur->_next;
					}

					delete cur; 
					--_n;
					return true;
				}
				prev = cur;
				cur = cur->_next;
			}
			return false;
		}

		//是vector的size。不是有效结点数
		size_t tables_size()
		{
    
    
			return _tables.size();
		}
		
	};



	template<class K>
	struct DefaultHash
	{
    
    
		size_t operator()(const K& key)
		{
    
    
			return (size_t)key;
		}
	};

	//C++11之后,可以用template<>来定义模板的具体实现
	//也就是模板特化相关的知识
	template<>
	struct DefaultHash<string>
	{
    
    
		size_t operator()(const string& key)
		{
    
    
			size_t hash = 0;
			for (auto e : key)
			{
    
    
				hash = hash * 131 + e;
			}
			return hash;
		}
	};

}

unordered_set.h文件中:

namespace myUnordered_set
{
    
    
	// 
	template<class K , class HashFunc = myHashBucket::DefaultHash<K>>
 	class unordered_set
	{
    
    
	private:
		//这个好像还必须写在 SetKeyOfT 仿函数之后
		/*myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc> _ht;*/

		//仿函数
		struct SetKeyOfT
		{
    
    
			const K& operator()(const K& key)
			{
    
    
				return key;
			}
		};

		成员变量
		//myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc> _ht;

	public: 

		typedef typename myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc>::iterator iterator;

		iterator begin()
		{
    
    
			return _ht.begin();
		}

		iterator end()
		{
    
    
			return _ht.end();
		}

		pair<iterator,bool> insert(const K& key)
		{
    
    
			return _ht.Insert(key);
		}

		iterator find(const K& key)
		{
    
    
			return _ht.Find(key);
		}

		bool erase(const K& key)
		{
    
    
			return _ht.Erase(key);
		}

	private:

		myHashBucket::HashTable<K, K, SetKeyOfT, HashFunc> _ht;
	};

}

unordered_map.h文件中:

#pragma once
#include"Hash.h"

namespace myUnorderer_map
{
    
    
	template<class K,class V ,class HashFunc = myHashBucket::DefaultHash<K>>
	class unordered_map
	{
    
    
	private:


		struct MapKeyOfT
		{
    
    
			const K& operator()(const pair<K, V>& kv)
			{
    
    
				return kv.first;
			}
		};
	
		myHashBucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc> _ht;

	public: 

		typedef typename myHashBucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc>::iterator iterator;

		iterator begin()
		{
    
    
			return _ht.begin();
		}

		iterator end()
		{
    
    
			return _ht.end();
		}

		pair<iterator, bool> insert(const pair<K, V>& kv)
		{
    
    
			return _ht.Insert(kv);
		}

		iterator find(const K& key)
		{
    
    
			return _ht.Find(key);
		}

		bool erase(const K& key)
		{
    
    
			return _ht.Erase(key);
		}

		//一个具有insert、find、修改功能的 [] ; 
		V& operator[](const K& key)
		{
    
    
			//因为不确定V是什么类型,所以调用其构造函数
			pair<iterator, bool> ret = insert(make_pair(key, V()));
			return ret.first->second;
		}
	};



}

猜你喜欢

转载自blog.csdn.net/WSK1454360679/article/details/131401645