Fork me on GitHub

Java集合-HashSet

  HashSet类,是存在于java.util包中的类 。同时也被称为集合,该容器中只能存储不重复的对象。底层是由HashMap来存储的,因为HashSet不能重复,你知道HashMap的键不能重复就明白了这一个原理了,所以对于HashMap很熟悉的话对于HashSet就能够很快的知道底层实现。HashMap传送门(HashMap源码分析)。

HashSet概述

  此类实现了Set接口,由哈希表(实际上是HashMap实例)支持。 对集合的迭代次序不作任何保证; 特别是不会保证这种顺序会持久不变(不保证循环元素的顺序,所以就有可能是有序的,也有可能是无序的),此类允许null元素。

  这个类基本操作为add,remove,contains和size提供了稳定的时间性能,假设哈希函数在桶中正确分散元素。 迭代该集合需要时间与HashSet实例的大小(元素数量)和后台HashMap实例的“容量”(桶数)的总和成比例。 因此,如果迭代性能很重要,不要将初始容量设置得太高(或负载因子太低)是非常重要的。

  请注意,此实现不同步。如果多个线程并发访问哈希集,并且至少一个线程修改该集合,则必须在外部进行同步。这通常通过在自然封装集合的某个对象上进行同步来实现。

  如果没有这样的对象存在,则该集合应该使用Collections.synchronizedSet方法“包装”。这最好在创建时完成,以防止意外的非同步访问集:

  Set s = Collections.synchronizedSet(new HashSet(...));

  这个类的迭代器方法返回的迭代器是快速失败的:如果在迭代器创建之后的任何时候该集合被修改,除了通过迭代器自己的remove方法之外,迭代器会以任何方式抛出ConcurrentModificationException异常。因此, 在并发修改时,迭代器会很快失效,而不是在未来不确定的时间内发生不确定性行为。

  请注意,迭代器的快速失败行为无法保证,因为一般来说,在不同步并发修改的情况下,无法做出任何硬性保证。 Fail-fast迭代器会尽力抛出ConcurrentModificationException异常。因此,编写依赖于该异常的程序的正确性是错误的:迭代器的快速失败行为只能用于检测错误。(以上翻译于JDK1.7,有错误请指出)

HashSet源码分析

  2.1、定义

    public class HashSet<E> extends AbstractSet<E> implements Set<E>, Cloneable, java.io.Serializable

    继承AbstractSet ,该类覆盖了 equals() 和 hashCode() 方法,以确保两个相等的集返回相同的散列码。若两个集大小相等且包含相同元素,则这两个集相等。按定义,集散列码是集中元素散列码的总和。因此,不论集的内部顺序如何,两个相等的集会报告相同的散列码(百度百科)。

    实现了Set接口,Set定义了集合的一些基本操作,如add、remove等等。实现了克隆接口Cloneable,序列化接口Serializable。

  2.2、属性

    static final long serialVersionUID = -5024744406713321676L;//序列版本号

    private transient HashMap<E,Object> map;//私有的HashMap,E为键,Object为值,是不是看到底层的东西了,哈哈

    private static final Object PRESENT = new Object();//与支持Map中的对象关联的虚拟值,属性就三个,简单粗暴。

  2.3、构造方法

    public HashSet() {//构造一个新的空集合; 后台HashMap实例具有默认初始容量(16)和负载因子(0.75)。
          map = new HashMap<>();
    }
    public HashSet(Collection<? extends E> c) {//构造一个包含指定集合中的元素的新集合。 HashMap使用默认负载因子(0.75)创建,初始容量足以包含指定集合中的元素。
          map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));//如果c.size/0.75值大于16则大小为c.size/0.75+1,否则默认16.
          addAll(c);
    }
    public HashSet(int initialCapacity, float loadFactor) {//构造一个新的空集合; 后台HashMap实例具有指定的初始容量和指定的负载因子。
          map = new HashMap<>(initialCapacity, loadFactor);//初始容量,负载因子
    }
   public HashSet(int initialCapacity) {//构造一个新的空集合; 后台HashMap实例具有指定的初始容量和默认负载因子(0.75)。
        map = new HashMap<>(initialCapacity);
   }
   HashSet(int initialCapacity, float loadFactor, boolean dummy) {//构造一个新的,空的LinkedHashMap。 (此包私有构造函数仅由LinkedHashSet使用。)后缀HashMap实例是具有指定初始容量和指定负载因子的LinkedHashMap。
        map = new LinkedHashMap<>(initialCapacity, loadFactor);
   }

  2.4、add方法 

  public boolean add(E e) {
        return map.put(e, PRESENT)==null;//map增加,终于看出来底层是map了
  }

  2.5、remove方法

  public boolean remove(Object o) {//如果存在,则从该集合中删除指定的元素。
        return map.remove(o)==PRESENT;
  }

  2.6、clear方法

  public void clear() {//从该集合中删除所有元素。此调用返回后,该集合将为空。
        map.clear();//使用map的clear
  }

  2.7、clone方法

  public Object clone() {//返回此<tt> HashSet </ tt>实例的浅层副本:元素本身不被克隆。
       try {
            HashSet<E> newSet = (HashSet<E>) super.clone();//HashSet克隆
            newSet.map = (HashMap<E, Object>) map.clone();//map克隆
            return newSet;
        } catch (CloneNotSupportedException e) {
            throw new InternalError();
        }
  }

HashSet总结

  HashSet的底层采用HashMap实现,只要对HashMap熟悉,HashSet毫无压力。要记住以下几点:

  1、HashSet可以插入Null.

  2、HashSet的元素不能重复。

  3、HashSet的遍历是可能有序可能无序的。

  

 

posted @ 2017-06-20 21:07  鹏&鹏  阅读(1089)  评论(0编辑  收藏  举报