Java教程

Java集合

本文主要是介绍Java集合,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

除了Map,其他都实现了Collection extends Iterable,都可以用迭代器

实现了RandomAccess的类代表for循环更快(ArrayList),没有实现的用迭代器更快(LinkedList)

ArrayList初始大小10

  1. 判断是否需要扩容,如果需要,计算需要扩容的最小容量
  2. 如果确定扩容,就执行grow(int minCapacity),minCapacity为最少需要的容量
  3. 第一次扩容是的容量大小是原来的1.5倍
    4 如果第一次 扩容后容量还是小于minCapacity,那就扩容为minCapacity
  4. 最后,如果minCapacity大于最大容量,则就扩容为最大容量

elementData transient 不需要全部被序列化

list=Collections.synchronizedList(new ArrayList(...)); 可以变成线程安全的

LinkedList实现了Deque,也能用get(i),但是是从头节点遍历或尾节点遍历的

Object类的equals用==判断, hashCode是native方法。

Map接口的具体实现中存在三种Map结构,其中HashMap和TreeMap都允许存在null值,而HashTable的key不允许为空,但是HashMap不能保证遍历元素的顺序,TreeMap能够保证遍历元素的顺序
链地址法:在数组的位置使用链表,将同一个hashCode的元素放在链表中,HashMap就是使用的这种方法,数组+链表的结构。

HashMap扩容
哈希桶(buckets):在 HashMap 的注释里使用哈希桶来形象的表示数组中每个地址位置。注意这里并不是数组本身,数组是装哈希桶的,他可以被称为哈希表。

初始容量(initial capacity) : 这个很容易理解,就是哈希表中哈希桶初始的数量。如果我们没有通过构造方法修改这个容量值默认为DEFAULT_INITIAL_CAPACITY = 1<<4 即16。值得注意的是为了保证 HashMap 添加和查找的高效性,HashMap 的容量总是 2^n 的形式。

加载因子(load factor):加载因子是哈希表(散列表)在其容量自动增加之前被允许获得的最大数量的度量。当哈希表中的条目数量超过负载因子和当前容量的乘积时,散列表就会被重新映射(即重建内部数据结构),重新创建的散列表容量大约是之前散列表哈系统桶数量的两倍。默认加载因子(0.75)在时间和空间成本之间提供了良好的折衷。加载因子过大会导致很容易链表过长,加载因子很小又容易导致频繁的扩容。所以不要轻易试着去改变这个默认值。

扩容阈值(threshold):其实在说加载因子的时候已经提到了扩容阈值了,扩容阈值 = 哈希表容量 * 加载因子。哈希表的键值对总数 = 所有哈希桶中所有链表节点数的加和,扩容阈值比较的是是键值对的个数而不是哈希表的数组中有多少个位置被占了。

树化阀值(TREEIFY_THRESHOLD) :这个参数概念是在 JDK1.8后加入的,它的含义代表一个哈希桶中的节点个数大于该值(默认为8)的时候将会被转为红黑树行存储结构。

非树化阀值(UNTREEIFY_THRESHOLD): 与树化阈值相对应,表示当一个已经转化为数形存储结构的哈希桶中节点数量小于该值(默认为 6)的时候将再次改为单链表的格式存储。导致这种操作的原因可能有删除节点或者扩容。

最小树化容量(MIN_TREEIFY_CAPACITY): 经过上边的介绍我们只知道,当链表的节点数超过8的时候就会转化为树化存储,其实对于转化还有一个要求就是哈希表的数量超过最小树化容量的要求(默认要求是 64),且为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD);在达到该有求之前优先选择扩容。扩容因为因为容量的变化可能会使单链表的长度改变。

ConcurrentHashMap
采用了 CAS + synchronized
红黑树

NIO Netty

HashCode原生实现

Hadoop Shuffle

Zookeeper

Optional

这篇关于Java集合的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!