数据结构之哈希表

导读:本篇文章讲解 数据结构之哈希表,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com

文章目录

  • 一、概念
  • 二、哈希冲突
  • 如何解决哈希冲突?
    • 1.哈希函数设计
    • 2.负载因子调节
    • 3.闭散列
    • 4.开散列(哈希桶)
  • 四、模拟实现哈希桶
  • 总结

一、概念

顺序结构以及平衡树中,元素与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O(logN),搜索的效率取决于搜索过程中元素的比较次数。理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数使元素的存储位置与它之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
 
该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(或者称散列表)。
 

二、哈希冲突

不同元素通过相同哈希函数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。由于哈希表底层数组的容量往往是小于实际要存储的元素的数量的,这就导致
冲突的发生是必然的,但应该是尽量的
降低冲突率。
 

如何解决哈希冲突?

1.哈希函数

引起哈希冲突的一个原因可能是:哈希函数设计不够合理哈希函数设计原则: 哈希函数的定义域必须包括需要存储的全部元素,而如果散列表允许有m个地址时,其值域必须在0到m-1之间哈希函数计算出来的地址能均匀分布在整个空间中。

常见的哈希函数:直接定制法(HashKey)= A*Key + B)、除留余数法(Hash(key) = key% p)、平方取中法(假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址)、随机数法(即H(key) = random(key),random为随机函数)等等。哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是还是无法避免哈希冲突。

2.负载因子调节

38844296b1e84f858506ec1834abb59f.png

cfc47049dd1c43aebc6b63886d91293d.png

哈希表中已有的元素个数是不可变的,那能调整的就只有哈希表中的数组的大小了。

3.闭散列

闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。
 
那如何寻找下一个空位置呢?
1. 线性探测:
   从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。
注意:采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。因此线性探测采用标记的伪删除法来删除一个元素。
2. 二次探测:

   线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:Hi; =(Ho+ i^2 )% m,其中i = 1,2,…为二次探测的次数。
 
研究表明:当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5,如果超出必须考虑增容。因此:比散列最大的缺陷就是空间利用率比较低。
 

4.开散列(哈希桶)

开散列法又叫链地址法(开链法),首先对元素集合用散列函数计算散列地址,具有相同地址的元素归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。开散列中每个桶中放的都是发生哈希冲突的元素。开散列,可以认为是把一个在大集合中的搜索问题转化为在小集合中做搜索了。那如果冲突严重,就意味着小集合的搜索性能其实也时不佳的,这个时候我们就可以将这个所谓的小集合搜索问题继续进行转化,例如:

1. 每个桶的背后是另一个哈希表
2. 每个桶的背后是一棵搜索树
c08b64d8b0dc4c5589751461a2f04b5a.png

 

 

四、模拟实现哈希桶

public class HashBucket<K,V> {
    static class Node<K,V>{
        public K key;
        public V val;
        public Node<K,V> next;
        public Node(K key,V val){
            this.key = key;
            this.val = val;
        }
    }
    public Node<K,V>[] array;
    public int size;
    private static final double LOAD_FACTOR = 0.75;
    private static final int DEFAULT_SIZE = 8;
    public HashBucket(){
        this.array = new Node[DEFAULT_SIZE];
    }
    public Node<K,V> put(K key, V value) {
        int hash = key.hashCode();
        int index = hash % array.length;
        Node<K,V> cur = array[index];
        while (cur != null){
            if (cur.val == value){
                cur.val = value;
                return cur;
            }
            cur = cur.next;
        }
        Node<K,V> node = new Node<>(key,value);
        node.next = array[index];
        array[index] = node;
        size++;
        if (loadFactor() >= LOAD_FACTOR){
            resize();
        }
        return node;
    }


    private void resize() {
        Node<K,V>[] newArray = new Node[2*array.length];
        for (int i = 0; i < array.length; i++) {
            Node<K,V> cur = array[i];
            while (cur != null){
                Node<K,V> curNext = cur.next;
                int hash = cur.key.hashCode();
                int newIndex = hash % newArray.length;
                cur.next = newArray[newIndex];
                newArray[newIndex] = cur;
                cur = curNext;
            }
        }
        array = newArray;
    }

    public Node<K,V> get(K key,V val){
        int hash = key.hashCode();
        int index = hash % array.length;
        Node<K,V> node = array[index];
        while (node != null){
            if (node.key == key){
                return node;
            }
            node = node.next;
        }
        return null;
    }


    private double loadFactor() {
        return size * 1.0 / array.length;
    }

}

总结

虽然哈希表一直在和冲突做斗争,但在实际使用过程中,我们认为哈希表的冲突率是不高的,冲突个数是可控的,也就是每个桶中的链表的长度是一个常数,所以,通常意义下,我们认为
哈希表的插入
/
删除
/
查找时间复杂度是
O(1)
 
1. HashMap 和 HashSet ,即 java 中利用哈希表实现的 Map 和 Set
2. java 中使用的是哈希桶方式解决冲突的
3. java 会在冲突链表长度大于一定阈值后,将链表转变为搜索树(红黑树)
4. java 中计算哈希值实际上是调用的类的
hashCode 方法,进行 key 的相等性比较是调用 key 的
equals 方法。所以如果要用自定义类作为 HashMap 的 key 或者 HashSet 的值,
必须重写
hashCode

equals

,而且要做到 equals 相等的对象,hashCode 一定是一致的。
 
两个对象的hashcode相同,equals不一定相同;
两个对象的equals相同,hashcode一定相同。

 

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/94568.html

(0)
小半的头像小半

相关推荐

极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!