Android开发

HashMap源码解析

本文主要是介绍HashMap源码解析,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

HashMap源码解析

前言

之前写过一篇SparseArray的源码解析,今天我们就对HashMap下手,撸一撸HashMap的源码。这篇文章的源码是从Android29中扒过来,实现方式是和JDK1.8里面的实现方式相似。

img

在jdk1.8的结构中,用的是数组+链表+红黑树的的结构来存放数据。使用红黑树能够加快增删改查的效率。

源码

重要属性

	public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
    //默认的数组的最小值
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    //默认的数组的最大值
    static final int MAXIMUM_CAPACITY = 1 << 30;
    //默认的负载因子
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    //当数据量大于8的时候,调整为红黑树
    static final int TREEIFY_THRESHOLD = 8;
    //小于6调整为链表
    static final int UNTREEIFY_THRESHOLD = 6;
    //临界值,当HashMap的存储的信息超过这个值的话,就会进行扩容
    int threshold;
    //当整个HashMap中的数量超过64的时候,也会转化为红黑树
    static final int MIN_TREEIFY_CAPACITY = 64;
    //元素的数量
    transient int size;
    //统计当前HashMap修改的次数
    transient int modCount;
    //实际的负载因子值
    final float loadFactor; 
复制代码

重要内部类

Node<K,V> :节点信息类。在HashMap中,进行存储的时候,每个存储位置都是一个节点,节点类型就是Node<K,V>

    //哈希节点信息,在HashMap中,每个节点都是Node对象
    static class Node<K, V> implements Map.Entry<K, V> {
        //key所对应的哈希值
        final int hash;
        final K key;
        V value;
        Node<K, V> next;

        Node(int hash, K key, V value, Node<K, V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }	
        ....
    }
复制代码

可以看到,节点有个next,指向了下一个节点信息。

TreeNode<K,V>:红黑树节点信息类。HashMap的某个槽点的保存的数据较多时,会将保存的结构从链表转化为红黑树,红黑树的节点信息就是TreeNode<K,V>

    //转化为红黑树的时候使用的节点信息
    static final class TreeNode<K, V> extends LinkedHashMap.LinkedHashMapEntry<K, V> {
        TreeNode<K, V> parent;  // red-black tree links
        TreeNode<K, V> left;
        TreeNode<K, V> right;
        TreeNode<K, V> prev;    // needed to unlink next upon deletion
        boolean red;

        TreeNode(int hash, K key, V val, Node<K, V> next) {
            super(hash, key, val, next);
        }
复制代码

红黑树的节点保存了父节点,左子节点,柚子节点以及前方节点信息

构造函数

HashMap的构造函数有多个,我们一一的研究

    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }
    //设置了初始容量
	public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
    //设置了初始容量和负载因子
    public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
        this.loadFactor = loadFactor;
        //根据初始容量计算下一次扩容的临界值
        this.threshold = tableSizeFor(initialCapacity);
    }
复制代码

HashMap这3个构造函数是相似的,最后一个构造函数的唯一的需要注意的就是 tableSizeFor 这个函数了。

    //寻找大于输入参数且最近的2的整数次幂的数
    static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }
复制代码

这个代码看起来贼神奇,我们看看他是如何做到能够找到最近的2的整数次幂的。

在二进制里面,2的整数次幂怎么表示? 0100...000。这种只有中间一个是1,其他位置都是0的,就是一个2的整数次幂。这里的实现方案是通过00111111...1111,然后+1处理,然后获取2的整数次幂。这里的处理方案

  • 先来假设n的二进制为01xxx...xxx。接着

  • 对n右移1位:001xx...xxx,再位或:011xx...xxx

  • 对n右移2为:00011...xxx,再位或:01111...xxx

  • 同理,通过右移,然后再位或,让最高位的1后面的位全变为1。也就是001111111111

  • 最后再让结果n+1,即得到了2的整数次幂的值了。

除了以上三个,还有一个特殊的构造函数

    //传入一个map,将map的数据保存到HashMap中
	public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }
复制代码

也是设置了默认的加载因子,然后调用了 putMapEntries 方法。

    //传入一个map,将其保存到hashmap中,
    final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        int s = m.size();
        if (s > 0) {
            if (table == null) { // pre-size
                //根据传入的长度计算容量,
                float ft = ((float) s / loadFactor) + 1.0F;
                //容量肯定不能超过HashMap的上下界限
                int t = ((ft < (float) MAXIMUM_CAPACITY) ? (int) ft : MAXIMUM_CAPACITY);
                //初始化临界值,当t大于临界值的时候,进行临界值的计算。这个tableSizeFor方法
                if (t > threshold)
                    threshold = tableSizeFor(t);
            } else if (s > threshold)//table已经初始化了,并且s超过了临界值,则调用resize()进行扩容
                resize();
            //遍历,逐个把map的书放入到hashmap中
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }
复制代码

这个构造方法,传入的是Map,在进行处理的过程中,会先通过map的大小对HashMap进行容量或者临界值做一个处理。然后再遍历通过**putval()**方法,将数据保存到hashmap中。

添加元素

    public V put(K key, V value) {
        //第三个参数表示不管value是否为空,都进行数据的保存
        return putVal(hash(key), key, value, false, true);
    }

    public V putIfAbsent(K key, V value) {
        return putVal(hash(key), key, value, true, true);
    }
复制代码

这个添加元素的方案应该是我们最最最常用的了吧?里面调用了一个函数的重载方法。hash(key) 方法是计算key对应的哈希值。

我们先不看重载方法,而是先研究一下,在hashmap中的哈希值是如何计算的。

    static final int hash(Object key) {
        int h;
        //如果key为空,那么hash为0。否则的话取hashCode值h,然后将其和h右移16位的值进行异或操作
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
复制代码

这个代码看起来很简单,但是因为涉及到异或的处理以及哈希槽的分配问题,所以我们这里重点讲解一下。

为什么要无符号右移16位?

img

假如说我们现在有一个32位的hashcode值。

img

当h无符号右移16位以后,会将h的高16位移动到低16位位置。然后再和原来的h进行异或操作。这样就可以将高低位的二进制特征进行混合起来。高16位不会发生变化,只有低16位发生了变化。为什么要这么做呢?我们知道hashmap的数据存储是将其分配到具体的哈希槽中的。所以需要尽量的保证数据能够均匀的分配到不同的槽中。

而分配到哈希槽点的计算方法是 (n - 1) & hash(这个我们后面会讲)。在重要属性中我们知道,HashMap数组的大小(也就是哈希槽点的数量)的默认值是16。我们按照16来进行计算处理。

img

这时候,hashcode的高16位,因为槽点的数量限制,直接就屏蔽了高16位的信息。如果我们不做刚才移位异或运算,那么在计算槽位时将丢失高区特征。这样就会容易造成如果数据的hashcode的值差异在高位,不做移位异或计算,就会发生哈希碰撞。

为什么使用异或?

异或操作能够很好的保留特征信息。不管是 | 还是 & ,都会导致计算的数据偏向 0 或者 1。

为什么槽位必须是2^n?

当槽位数值是2^n的时候,计算槽位的公式-1,能够保证所有的位置都是1,进行 (n - 1) & hash操作,分配的槽值位置的均匀度就不会受槽值的影响,而之受hash的影响。而我们在计算hash的时候又通过移位异或的计算从而保证其均匀性,从而减少了哈希碰撞。

对于HashMap的hash值的计算原理我们就说到这里有兴趣的小伙伴可以研究研究。我们这就继续源码了~

    /**
     * 保存key,value
     * @param hash  key对应的hash值
     * @param key   key值
     * @param value value值
     * @param onlyIfAbsent   如果是true:则只有对应的value为空的时候才保存。
     * @param evict
     * @return
     */
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
        //哈希数组
        Node<K, V>[] tab;
        //p 该哈希桶的首节点
        Node<K, V> p;
        //n 哈希的长度
        // i:计算出来数据在哈希数组中的的数组下标
        int n, i;
        //获取长度并进行扩容,使用的是懒加载,table一开始是没有加载的,等put后才开始加载
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //查找hash对应的哈希桶首节点
        if ((p = tab[i = (n - 1) & hash]) == null) {
            //如果当前hash所对应的位置节点是空,则将其作为哈希桶的首节点
            tab[i] = newNode(hash, key, value, null);
        } else {
            //哈希冲突了
            //e表示key对应的数据在map中存在的节点信息
            // k代表节点的key值
            Node<K, V> e;
            K k;
            //哈希桶的首节点就是我们的key所在的位置.(需要哈希值相等,equal方法相同。所以这就是为什么在覆写equal方法的时候还要覆写hash)
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
                //不是哈希桶的首节点,如果哈希桶的首节点是红黑树节点。则将其放到红黑树
            else if (p instanceof TreeNode)
                e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value);
            else {
                //否则就放入到数据链中
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {//到链表结尾了,那么将key和value放到链表结尾
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            //链表数量超过了8,则变为红黑树
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            //如果插入的key所对应的值存在则进行覆盖且则返回旧值
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //增加实际数据长度,如果满足要求则扩容。
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        //添加成功,则返回空
        return null;
    }

复制代码

在进行key,value存储的过程中,会根据具体的情况来进行分析处理。

  • 如果存储数据的哈希槽没有创建则创建哈希槽数组。
  • 哈希值对应的哈希桶首节点不存在,则将数据放到首节点位置。
  • 如果首节点存在,则进行不同的情况处理
    • 如果首节点就是我们key所在的位置,则返回首节点
    • 如果首节点不是key所在位置。
      • 当前哈希桶是红黑树,则通过putTreeVal方法进行处理。
      • 如果是链表,则遍历链表,如果找到对应的key和要保存的key相等,则返回对应的节点信息,如果没有找到,则创建新的节点放置到链表后,保存后,可能会将链表转化为红黑树。
  • 在之前的所有处理中,如果key所在的节点找到了,其实并没有进行数据的保存工作,只是将指针指向了对应的节点位置。然后根据onlyIfAbsent入参来处理是否保存的逻辑处理。

这里面有几个函数需要我们去关注一下。

resize()

这个函数有2个作用,一个是初始化,另一个是进行扩容工作。扩容是将数组的容量加倍,然后将每个位置的数据再重新计算放置到新的数组中。

    // 初始化或扩容。
    // 当table是null时,根据临界值threshold成员变量来初始化table的大小。
    // 如果table已经初始化,那么哈希桶里面的元素要么处于该table下标,要么处于该table下标再加某个2的幂
    final Node<K, V>[] resize() {
        //保存旧版本的表
        Node<K, V>[] oldTab = table;
        //旧表的表容量
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        //旧的临界值
        int oldThr = threshold;
        //新的容量和新的临界值
        int newCap, newThr = 0;
        if (oldCap > 0) {//如果table表已经进行了初始化,则进行扩容处理。
            if (oldCap >= MAXIMUM_CAPACITY) {//如果table已经超过了上限,不再扩容了
                threshold = Integer.MAX_VALUE;
                return oldTab;
            } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&//进行扩容
                    oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 装载因子不变,所以容量翻倍,阈值也翻倍 double threshold
        }
        //如果调用public HashMap(int initialCapacity, float loadFactor)方法进行初始化,会根据传输的容量初始化设置了阈值,但是并没有存放数据,table也没有初始化
        //这时候直接将阈值赋值给新的变量
        else if (oldThr > 0)//初始容量设置为阈值 // initial capacity was placed in threshold
            newCap = oldThr;
        else { //初始阈值为零表示使用默认值           // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int) (DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //如果临界值为0,则设置临界值为容量*负载因子
        if (newThr == 0) {
            float ft = (float) newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float) MAXIMUM_CAPACITY ?
                    (int) ft : Integer.MAX_VALUE);
        }
        //设置新的临界值
        threshold = newThr;
        //创建新表
        @SuppressWarnings({"rawtypes", "unchecked"})
        Node<K, V>[] newTab = (Node<K, V>[]) new Node[newCap];
        table = newTab;
        //进行新表的数据保存
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K, V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)//如果只有一个节点,则直接将其保存到新的数据首节点位置
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)//如果是红黑树,则把红黑树进行拆分
                        ((TreeNode<K, V>) e).split(this, newTab, j, oldCap);
                    else { //链表 preserve order
                        //进行2倍扩容的话,其实相当于把原来的数组内部的数据分别放到了i+n的位置和当前的i内。并不会放到其他的位置。
                        //e.hash & (newCap - 1)->因为位数都是以,所以得出的信息
                        Node<K, V> loHead = null, loTail = null;
                        Node<K, V> hiHead = null, hiTail = null;
                        Node<K, V> next;
                        do {
                            next = e.next;
                            //比如原来cap是0100,则位置是hash&(0011)的到的坐标。扩容以后就是hash&(0111)。
                            // 所以是否需要移动,只需要看0100,这个1的位置即可
                            // 如果这个bit等于0,说明新table下标和旧table下标是一样的
                            if ((e.hash & oldCap) == 0) {
                                //如果Low表的数据还没有初始化,则进行初始化,否则就将数据放到列表的下一位
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            } else {//否则的话,放入到i+n位置的数组内
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        //将两个链表的头节点放入到数组中
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
复制代码

在进行初始化或者存放数据后,都会进行这个方法的调用。

treeifyBin
    //将hash所对应的那个哈希桶变为红黑树结构
    final void treeifyBin(Node<K, V>[] tab, int hash) {
        int n, index;
        Node<K, V> e;
        //如果数组为空,进行初始化。如果数组的长度小于64,会进行扩容操作,因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的
        //所以会先进行扩容,只有当容量大于64,才会进行将链表结构变化为红黑树
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            //e是hash对应的数组位置的首节点
            TreeNode<K, V> hd = null, tl = null;
            do {
                //创建一个树形节点
                TreeNode<K, V> p = replacementTreeNode(e, null);
                //将所有的树形节点,按照双向链表的方式保存
                if (tl == null)
                    hd = p;
                else {
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            //将链表转化为红黑树结构
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }

复制代码

这个方法会在某个哈希桶保存的数据量超过8个的时候进行调用。里面会根据情况进行扩容或者转化为红黑树。

如果发现哈希桶的数量小于64,会进行扩容工作。因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的。

在转化为红黑树的过程中,会将现有的Node转化为TreeNode,然后会调用treeify 方法将双向链表转化为红黑树。

TreeNode.putTreeVal

这个方法是从红黑树中进行数据的遍历处理,如果获取到相同的key,则返回对应的位置信息,否则就通过红黑树的比较方式,将数据存入红黑树中。

比较重要的几个函数讲完了,我们可以简单看看其他几个添加的方法

    //将一个map保存到hashmap中
    public void putAll(Map<? extends K, ? extends V> m) {
        putMapEntries(m, true);
    }
复制代码

这个调用的方法和我们的构造函数中使用的是一样的,我们之前做过解析,这里就不用再看了

删除

    public V remove(Object key) {
        Node<K, V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
                null : e.value;
    }
	//key和value都相同的才进行移除
    public boolean remove(Object key, Object value) {
        return removeNode(hash(key), key, value, true, true) != null;
    }

复制代码

会调用一个函数重载方法

    /**
     *
     * @param hash   对应的hash值
     * @param key    对应的key
     * @param value     对应的value
     * @param matchValue    是否需要value匹配,如果为true的话,只有保存的value和传入的参数value相同,才移除
     * @param movable   如果为false,则在删除时不移动其他节点
     * @return
     */
    final Node<K, V> removeNode(int hash, Object key, Object value,
                                boolean matchValue, boolean movable) {
        Node<K, V>[] tab;
        Node<K, V> p;
        int n, index;
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (p = tab[index = (n - 1) & hash]) != null) {//hash所对应的哈希桶存在而且不不为空
            //node用来保存找到的key相等的符合要求的节点
            Node<K, V> node = null, e;
            K k;
            V v;
            if (p.hash == hash &&   //如果key相等,则直接返回p节点信息
                    ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            else if ((e = p.next) != null) {
                if (p instanceof TreeNode)  //如果当前哈希桶是红黑树,则通过红黑树来进行查找
                    node = ((TreeNode<K, V>) p).getTreeNode(hash, key);
                else {//否则通过遍历链表搜索,搜索完的话
                    do {
                        if (e.hash == hash &&
                                ((k = e.key) == key ||
                                        (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            //如果找到了对应的节点信息,则根据入参进行数据的删除。
            if (node != null && (!matchValue || (v = node.value) == value ||
                    (value != null && value.equals(v)))) {
                if (node instanceof TreeNode)
                    ((TreeNode<K, V>) node).removeTreeNode(this, tab, movable);
                else if (node == p)
                    tab[index] = node.next;
                else
                    p.next = node.next;
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }
复制代码

这里会根据hash来判断key可能在的 哈希桶的位置,然后从哈希桶的根节点开始遍历。当然了,哈希桶可能是红黑树也可能是链表,需要根据不同的情况来遍历查找节点。

当查找到节点以后,会根据入参来判断是否进行移除工作。

我们来看下一个移除的函数(清空)

清空

    public void clear() {
        Node<K, V>[] tab;
        //修改次数+1
        modCount++;
        //如果哈希数组不为空,则遍历所有的哈希桶,将其所有的首节点设置为空
        if ((tab = table) != null && size > 0) {
            size = 0;
            for (int i = 0; i < tab.length; ++i)
                tab[i] = null;
        }
    }
复制代码

清空操作相对来说比较简单,会把所有的哈希桶的首节点都置为null,然后将hashmap的size置为0。

查找

    public V get(Object key) {
        Node<K, V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

    final Node<K, V> getNode(int hash, Object key) {
        Node<K, V>[] tab;
        Node<K, V> first, e;
        int n;
        K k;
        //hash所对应的哈希桶是存在的
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (first = tab[(n - 1) & hash]) != null) {
            //首先检测首节点是否是我们需要查找的数据,如果是的话,直接返回
            if (first.hash == hash && // always check first node
                    ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            //如果不是,遍历
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    //如果是红黑树,则从红黑树获取
                    return ((TreeNode<K, V>) first).getTreeNode(hash, key);
                do {//链表结构的话,遍历链表查询
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }
复制代码

对于数据的获取,通过重载函数进行了查询处理。

线程安全

在JDK8中的HashMap是非线程安全的,会发生数据覆盖问题。而非线程安全的问题主要出现在数据的插入操作。

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
        ...
		if ((p = tab[i = (n - 1) & hash]) == null) // 如果没有hash碰撞则直接插入元素
            tab[i] = newNode(hash, key, value, null);
        ...
        if (++size > threshold)
            resize();
        ...
    }

复制代码

首先,在第一个地方,假设线程A、B都在执行put的操作,当线程执行完条件判断完成以后由于时间片耗尽而被挂起,而线程B得到时间片后载该下标处进行了插入元素的操作,完成了正常的插入操作。然后这个时候A获取时间片以后,由于之前进行过条件判断,所以不再进行判断而是直接进行数据的插入,会导致线程B的数据被线程A覆盖了,从而线程不安全。

其次,在第二个位置,++size的操作,在进行操作的时候,在底层会进行多个处理,首先取得size值,然后再进行++,最后将值进行保存。并非是一个原子操作。所以会存在线程安全的问题。

扩展知识点

  1. 在进行HashMap存储的过程中,理解了为什么类在重写equal方法的同时,必须重写hashcode方法。因为在保存或者移除的时候,会根据hashcode来获取对应的哈希桶,然后根据equals方法来进行是否是同一个key的判断处理。如果重写了equal,但是hashcode不同,可能会导致其hashcode不一致,从而保存到了不同的哈希桶中。
  2. hashcode值是32位的。
  3. HashMap非线程安全,Hashtable是线程安全的。HashTable的方法是通过Synchronize来实现同步的。
  4. HashMap非线程安全,在多线程使用场景下可以使用ConcurrentHashMap来替代HashMap。
  5. Hashmap是允许key和value为null值的,用containsValue和containsKey方法判断是否包含对应键值对;HashTable键值对都不能为空,否则包空指针异常。
这篇关于HashMap源码解析的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!