【死磕Java并发】—–Java内存模型

【死磕Java并发】—–Java内存模型之happens-before

免费领取10G资料包与项目实战视频资料
原文出处:http://cmsblogs.com/ 『chenssy

在上篇博客(【死磕Java并发】-----深入分析volatile的实现原理)LZ提到过由于存在线程本地内存和主内存的原因,再加上重排序,会导致多线程环境下存在可见性的问题。那么我们正确使用同步、锁的情况下,线程A修改了变量a何时对线程B可见? 我们无法就所有场景来规定某个线程修改的变量何时对其他线程可见,但是我们可以指定某些规则,这规则就是happens-before,从JDK 5 开始,JMM就使用happens-before的概念来阐述多线程之间的内存可见性。
在JMM中,如果一个操作执行的结果需要对另一个操作可见,那么这两个操作之间必须存在happens-before关系。
happens-before原则非常重要,它是判断数据是否存在竞争、线程是否安全的主要依据,依靠这个原则,我们解决在并发环境下两操作之间是否可能存在冲突的所有问题。下面我们就一个简单的例子稍微了解下happens-before ;
i = 1;       //线程A执行
j = i ;      //线程B执行
j 是否等于1呢?假定线程A的操作(i = 1)happens-before线程B的操作(j = i),那么可以确定线程B执行后j = 1 一定成立,如果他们不存在happens-before原则,那么j = 1 不一定成立。这就是happens-before原则的威力。 happens-before原则定义如下: 1. 如果一个操作happens-before另一个操作,那么第一个操作的执行结果将对第二个操作可见,而且第一个操作的执行顺序排在第二个操作之前。 2. 两个操作之间存在happens-before关系,并不意味着一定要按照happens-before原则制定的顺序来执行。如果重排序之后的执行结果与按照happens-before关系来执行的结果一致,那么这种重排序并不非法。 下面是happens-before原则规则:
  1. 程序次序规则:一个线程内,按照代码顺序,书写在前面的操作先行发生于书写在后面的操作;
  2. 锁定规则:一个unLock操作先行发生于后面对同一个锁额lock操作;
  3. volatile变量规则:对一个变量的写操作先行发生于后面对这个变量的读操作;
  4. 传递规则:如果操作A先行发生于操作B,而操作B又先行发生于操作C,则可以得出操作A先行发生于操作C;
  5. 线程启动规则:Thread对象的start()方法先行发生于此线程的每个一个动作;
  6. 线程中断规则:对线程interrupt()方法的调用先行发生于被中断线程的代码检测到中断事件的发生;
  7. 线程终结规则:线程中所有的操作都先行发生于线程的终止检测,我们可以通过Thread.join()方法结束、Thread.isAlive()的返回值手段检测到线程已经终止执行;
  8. 对象终结规则:一个对象的初始化完成先行发生于他的finalize()方法的开始;
我们来详细看看上面每条规则(摘自《深入理解Java虚拟机第12章》):
  • 程序次序规则:一段代码在单线程中执行的结果是有序的。注意是执行结果,因为虚拟机、处理器会对指令进行重排序(重排序后面会详细介绍)。虽然重排序了,但是并不会影响程序的执行结果,所以程序最终执行的结果与顺序执行的结果是一致的。故而这个规则只对单线程有效,在多线程环境下无法保证正确性。
  • volatile变量规则:这是一条比较重要的规则,它标志着volatile保证了线程可见性。通俗点讲就是如果一个线程先去写一个volatile变量,然后一个线程去读这个变量,那么这个写操作一定是happens-before读操作的。
  • 传递规则:提现了happens-before原则具有传递性,即A happens-before B , B happens-before C,那么A happens-before C
  • 线程启动规则:假定线程A在执行过程中,通过执行ThreadB.start()来启动线程B,那么线程A对共享变量的修改在接下来线程B开始执行后确保对线程B可见。
  • 线程终结规则:假定线程A在执行的过程中,通过制定ThreadB.join()等待线程B终止,那么线程B在终止之前对共享变量的修改在线程A等待返回后可见。
上面八条是原生Java满足Happens-before关系的规则,但是我们可以对他们进行推导出其他满足happens-before的规则:
  1. 将一个元素放入一个线程安全的队列的操作Happens-Before从队列中取出这个元素的操作
  2. 将一个元素放入一个线程安全容器的操作Happens-Before从容器中取出这个元素的操作
  3. 在CountDownLatch上的倒数操作Happens-Before CountDownLatch#await()操作
  4. 释放Semaphore许可的操作Happens-Before获得许可操作
  5. Future表示的任务的所有操作Happens-Before Future#get()操作
  6. 向Executor提交一个Runnable或Callable的操作Happens-Before任务开始执行操作
这里再说一遍happens-before的概念:如果两个操作不存在上述(前面8条 + 后面6条)任一一个happens-before规则,那么这两个操作就没有顺序的保障,JVM可以对这两个操作进行重排序。如果操作A happens-before操作B,那么操作A在内存上所做的操作对操作B都是可见的。 下面就用一个简单的例子来描述下happens-before原则:
private int i = 0;

public void write(int j ){
    i = j;
}

public int read(){
    return i;
}
我们约定线程A执行write(),线程B执行read(),且线程A优先于线程B执行,那么线程B获得结果是什么?;我们就这段简单的代码一次分析happens-before的规则(规则5、6、7、8 + 推导的6条可以忽略,因为他们和这段代码毫无关系):
  1. 由于两个方法是由不同的线程调用,所以肯定不满足程序次序规则;
  2. 两个方法都没有使用锁,所以不满足锁定规则;
  3. 变量i不是用volatile修饰的,所以volatile变量规则不满足;
  4. 传递规则肯定不满足;
所以我们无法通过happens-before原则推导出线程A happens-before线程B,虽然可以确认在时间上线程A优先于线程B指定,但是就是无法确认线程B获得的结果是什么,所以这段代码不是线程安全的。那么怎么修复这段代码呢?满足规则2、3任一即可。
happen-before原则是JMM中非常重要的原则,它是判断数据是否存在竞争、线程是否安全的主要依据,保证了多线程环境下的可见性。
下图是happens-before与JMM的关系图(摘自《Java并发编程的艺术》)

参考资料

  1. 周志明:《深入理解Java虚拟机》
  2. 方腾飞:《Java并发编程的艺术》

    【死磕Java并发】—–Java内存模型之重排序

    免费领取10G资料包与项目实战视频资料
    原文出处:http://cmsblogs.com/ 『chenssy

    在执行程序时,为了提供性能,处理器和编译器常常会对指令进行重排序,但是不能随意重排序,不是你想怎么排序就怎么排序,它需要满足以下两个条件:
    1. 在单线程环境下不能改变程序运行的结果;
    2. 存在数据依赖关系的不允许重排序
    如果看过LZ上篇博客的就会知道,其实这两点可以归结于一点:无法通过happens-before原则推导出来的,JMM允许任意的排序。

    as-if-serial语义

    as-if-serial语义的意思是,所有的操作均可以为了优化而被重排序,但是你必须要保证重排序后执行的结果不能被改变,编译器、runtime、处理器都必须遵守as-if-serial语义。注意as-if-serial只保证单线程环境,多线程环境下无效。 下面我们用一个简单的示例来说明:
    int a = 1 ;      //A
    int b = 2 ;      //B
    int c = a + b;   //C
    A、B、C三个操作存在如下关系:A、B不存在数据依赖关系,A和C、B和C存在数据依赖关系,因此在进行重排序的时候,A、B可以随意排序,但是必须位于C的前面,执行顺序可以是A --> B --> C或者B --> A --> C。但是无论是何种执行顺序最终的结果C总是等于3。 as-if-serail语义把单线程程序保护起来了,它可以保证在重排序的前提下程序的最终结果始终都是一致的。 其实对于上段代码,他们存在这样的happen-before关系:
    1. A happens-before B
    2. B happens-before C
    3. A happens-before C
    1、2是程序顺序次序规则,3是传递性。但是,不是说通过重排序,B可能会排在A之前执行么,为何还会存在存在A happens-beforeB呢?这里再次申明A happens-before B不是A一定会在B之前执行,而是A的对B可见,但是相对于这个程序A的执行结果不需要对B可见,且他们重排序后不会影响结果,所以JMM不会认为这种重排序非法。 我们需要明白这点:在不改变程序执行结果的前提下,尽可能提高程序的运行效率。 下面我们在看一段有意思的代码:
    public class RecordExample1 {
        public static void main(String[] args){
            int a = 1;
            int b = 2;
    
            try {
                a = 3;           //A
                b = 1 / 0;       //B
            } catch (Exception e) {
    
            } finally {
                System.out.println("a = " + a);
            }
        }
    }
    按照重排序的规则,操作A与操作B有可能会进行重排序,如果重排序了,B会抛出异常( / by zero),此时A语句一定会执行不到,那么a还会等于3么?如果按照as-if-serial原则它就改变了程序的结果。其实JVM对异常做了一种特殊的处理,为了保证as-if-serial语义,Java异常处理机制对重排序做了一种特殊的处理:JIT在重排序时会在catch语句中插入错误代偿代码(a = 3),这样做虽然会导致cathc里面的逻辑变得复杂,但是JIT优化原则是:尽可能地优化程序正常运行下的逻辑,哪怕以catch块逻辑变得复杂为代价。

    重排序对多线程的影响

    在单线程环境下由于as-if-serial语义,重排序无法影响最终的结果,但是对于多线程环境呢? 如下代码(volatile的经典用法):
    public class RecordExample2 {
        int a = 0;
        boolean flag = false;
    
        /**
         * A线程执行
         */
        public void writer(){
            a = 1;                  // 1
            flag = true;            // 2
        }
    
        /**
         * B线程执行
         */
        public void read(){
            if(flag){                  // 3
               int i = a + a;          // 4
            }
        }
    
    }
    A线程执行writer(),线程B执行read(),线程B在执行时能否读到 a = 1 呢?答案是不一定(注:X86CPU不支持写写重排序,如果是在x86上面操作,这个一定会是a=1,LZ搞了好久都没有测试出来,最后查资料才发现)。 由于操作1 和操作2 之间没有数据依赖性,所以可以进行重排序处理,操作3 和操作4 之间也没有数据依赖性,他们亦可以进行重排序,但是操作3 和操作4 之间存在控制依赖性。假如操作1 和操作2 之间重排序:按照这种执行顺序线程B肯定读不到线程A设置的a值,在这里多线程的语义就已经被重排序破坏了。 操作3 和操作4 之间也可以重排序,这里就不阐述了。但是他们之间存在一个控制依赖的关系,因为只有操作3 成立操作4 才会执行。当代码中存在控制依赖性时,会影响指令序列的执行的并行度,所以编译器和处理器会采用猜测执行来克服控制依赖对并行度的影响。假如操作3 和操作4重排序了,操作4 先执行,则先会把计算结果临时保存到重排序缓冲中,当操作3 为真时才会将计算结果写入变量i中 通过上面的分析,重排序不会影响单线程环境的执行结果,但是会破坏多线程的执行语义

    【死磕Java并发】—–Java内存模型之分析volatile

    免费领取10G资料包与项目实战视频资料
    原文出处:http://cmsblogs.com/ 『chenssy

    前篇博客【死磕Java并发】-----深入分析volatile的实现原理 中已经阐述了volatile的特性了:
    1. volatile可见性;对一个volatile的读,总可以看到对这个变量最终的写;
    2. volatile原子性;volatile对单个读/写具有原子性(32位Long、Double),但是复合操作除外,例如i++;
    3. JVM底层采用“内存屏障”来实现volatile语义
    下面LZ就通过happens-before原则和volatile的内存语义两个方向介绍volatile。

    volatile与happens-before

    在这篇博客【死磕Java并发】-----Java内存模型之happend-before中LZ阐述了happens-before是用来判断是否存数据竞争、线程是否安全的主要依据,它保证了多线程环境下的可见性。下面我们就那个经典的例子来分析volatile变量的读写建立的happens-before关系。
    public class VolatileTest {
    
        int i = 0;
        volatile boolean flag = false;
    
        //Thread A
        public void write(){
            i = 2;              //1
            flag = true;        //2
        }
    
        //Thread B
        public void read(){
            if(flag){                                   //3
                System.out.println("---i = " + i);      //4
            }
        }
    }
    依据happens-before原则,就上面程序得到如下关系:
    • 依据happens-before程序顺序原则:1 happens-before 2、3 happens-before 4;
    • 根据happens-before的volatile原则:2 happens-before 3;
    • 根据happens-before的传递性:1 happens-before 4
    操作1、操作4存在happens-before关系,那么1一定是对4可见的。可能有同学就会问,操作1、操作2可能会发生重排序啊,会吗?如果看过LZ的博客就会明白,volatile除了保证可见性外,还有就是禁止重排序。所以A线程在写volatile变量之前所有可见的共享变量,在线程B读同一个volatile变量后,将立即变得对线程B可见。

    volataile的内存语义及其实现

    在JMM中,线程之间的通信采用共享内存来实现的。volatile的内存语义是:
    当写一个volatile变量时,JMM会把该线程对应的本地内存中的共享变量值立即刷新到主内存中。 当读一个volatile变量时,JMM会把该线程对应的本地内存设置为无效,直接从主内存中读取共享变量
    所以volatile的写内存语义是直接刷新到主内存中,读的内存语义是直接从主内存中读取。 那么volatile的内存语义是如何实现的呢?对于一般的变量则会被重排序,而对于volatile则不能,这样会影响其内存语义,所以为了实现volatile的内存语义JMM会限制重排序。其重排序规则如下: 翻译如下:
    1. 如果第一个操作为volatile读,则不管第二个操作是啥,都不能重排序。这个操作确保volatile读之后的操作不会被编译器重排序到volatile读之前;
    2. 当第二个操作为volatile写是,则不管第一个操作是啥,都不能重排序。这个操作确保volatile写之前的操作不会被编译器重排序到volatile写之后;
    3. 当第一个操作volatile写,第二操作为volatile读时,不能重排序。
    volatile的底层实现是通过插入内存屏障,但是对于编译器来说,发现一个最优布置来最小化插入内存屏障的总数几乎是不可能的,所以,JMM采用了保守策略。如下:
    • 在每一个volatile写操作前面插入一个StoreStore屏障
    • 在每一个volatile写操作后面插入一个StoreLoad屏障
    • 在每一个volatile读操作后面插入一个LoadLoad屏障
    • 在每一个volatile读操作后面插入一个LoadStore屏障
    StoreStore屏障可以保证在volatile写之前,其前面的所有普通写操作都已经刷新到主内存中。 StoreLoad屏障的作用是避免volatile写与后面可能有的volatile读/写操作重排序。 LoadLoad屏障用来禁止处理器把上面的volatile读与下面的普通读重排序。 LoadStore屏障用来禁止处理器把上面的volatile读与下面的普通写重排序。 下面我们就上面那个VolatileTest例子分析下:
    public class VolatileTest {
        int i = 0;
        volatile boolean flag = false;
        public void write(){
            i = 2;
            flag = true;
        }
    
        public void read(){
            if(flag){
                System.out.println("---i = " + i);
            }
        }
    }
    上面通过一个例子稍微演示了volatile指令的内存屏障图例。 volatile的内存屏障插入策略非常保守,其实在实际中,只要不改变volatile写-读得内存语义,编译器可以根据具体情况优化,省略不必要的屏障。如下(摘自方腾飞 《Java并发编程的艺术》):
    public class VolatileBarrierExample {
        int a = 0;
        volatile int v1 = 1;
        volatile int v2 = 2;
    
        void readAndWrite(){
            int i = v1;     //volatile读
            int j = v2;     //volatile读
            a = i + j;      //普通读
            v1 = i + 1;     //volatile写
            v2 = j * 2;     //volatile写
        }
    }
    没有优化的示例图如下:我们来分析上图有哪些内存屏障指令是多余的
    • 1:这个肯定要保留了
    • 2:禁止下面所有的普通写与上面的volatile读重排序,但是由于存在第二个volatile读,那个普通的读根本无法越过第二个volatile读。所以可以省略。
    • 3:下面已经不存在普通读了,可以省略。
    • 4:保留
    • 5:保留
    • 6:下面跟着一个volatile写,所以可以省略
    • 7:保留
    • 8:保留
    所以2、3、6可以省略,其示意图如下:

    参考资料

    1. 方腾飞:《Java并发编程的艺术》

      【死磕Java并发】—–Java内存模型之从JMM角度分析DCL

      免费领取10G资料包与项目实战视频资料
      原文出处:http://cmsblogs.com/ 『chenssy

      DCL,即Double Check Lock,中卫双重检查锁定。其实DCL很多人在单例模式中用过,LZ面试人的时候也要他们写过,但是有很多人都会写错。他们为什么会写错呢?其错误根源在哪里?有什么解决方案?下面就随LZ一起来分析

      问题分析

      我们先看单例模式里面的懒汉式:
      public class Singleton {
         private static Singleton singleton;
      
         private Singleton(){}
      
         public static Singleton getInstance(){
             if(singleton == null){
                 singleton = new Singleton();
             }
      
             return singleton;
         }
      }
      我们都知道这种写法是错误的,因为它无法保证线程的安全性。优化如下:
      public class Singleton {
         private static Singleton singleton;
      
         private Singleton(){}
      
         public static synchronized Singleton getInstance(){
             if(singleton == null){
                 singleton = new Singleton();
             }
      
             return singleton;
         }
      }
      优化非常简单,就是在getInstance方法上面做了同步,但是synchronized就会导致这个方法比较低效,导致程序性能下降,那么怎么解决呢?聪明的人们想到了双重检查 DCL:
      public class Singleton {
         private static Singleton singleton;
      
         private Singleton(){}
      
         public static Singleton getInstance(){
             if(singleton == null){                              // 1
                 synchronized (Singleton.class){                 // 2
                     if(singleton == null){                      // 3
                         singleton = new Singleton();            // 4
                     }
                 }
             }
             return singleton;
         }
      }
      就如上面所示,这个代码看起来很完美,理由如下:
      • 如果检查第一个singleton不为null,则不需要执行下面的加锁动作,极大提高了程序的性能;
      • 如果第一个singleton为null,即使有多个线程同一时间判断,但是由于synchronized的存在,只会有一个线程能够创建对象;
      • 当第一个获取锁的线程创建完成后singleton对象后,其他的在第二次判断singleton一定不会为null,则直接返回已经创建好的singleton对象;
      通过上面的分析,DCL看起确实是非常完美,但是可以明确地告诉你,这个错误的。上面的逻辑确实是没有问题,分析也对,但是就是有问题,那么问题出在哪里呢?在回答这个问题之前,我们先来复习一下创建对象过程,实例化一个对象要分为三个步骤:
      1. 分配内存空间
      2. 初始化对象
      3. 将内存空间的地址赋值给对应的引用
      但是由于重排序的缘故,步骤2、3可能会发生重排序,其过程如下:
      1. 分配内存空间
      2. 将内存空间的地址赋值给对应的引用
      3. 初始化对象
      如果2、3发生了重排序就会导致第二个判断会出错,singleton != null,但是它其实仅仅只是一个地址而已,此时对象还没有被初始化,所以return的singleton对象是一个没有被初始化的对象,如下:按照上面图例所示,线程B访问的是一个没有被初始化的singleton对象。 通过上面的阐述,我们可以判断DCL的错误根源在于步骤4:
      singleton = new Singleton();
      知道问题根源所在,那么怎么解决呢?有两个解决办法:
      1. 不允许初始化阶段步骤2 、3发生重排序。
      2. 允许初始化阶段步骤2 、3发生重排序,但是不允许其他线程“看到”这个重排序。

      解决方案

      解决方案依据上面两个解决办法即可。

      基于volatile解决方案

      对于上面的DCL其实只需要做一点点修改即可:将变量singleton生命为volatile即可:
      public class Singleton {
         //通过volatile关键字来确保安全
         private volatile static Singleton singleton;
      
         private Singleton(){}
      
         public static Singleton getInstance(){
             if(singleton == null){
                 synchronized (Singleton.class){
                     if(singleton == null){
                         singleton = new Singleton();
                     }
                 }
             }
             return singleton;
         }
      }
      当singleton声明为volatile后,步骤2、步骤3就不会被重排序了,也就可以解决上面那问题了。

      基于类初始化的解决方案

      该解决方案的根本就在于:利用classloder的机制来保证初始化instance时只有一个线程。JVM在类初始化阶段会获取一个锁,这个锁可以同步多个线程对同一个类的初始化
      public class Singleton {
         private static class SingletonHolder{
             public static Singleton singleton = new Singleton();
         }
      
         public static Singleton getInstance(){
             return SingletonHolder.singleton;
         }
      }
      这种解决方案的实质是:运行步骤2和步骤3重排序,但是不允许其他线程看见。
      Java语言规定,对于每一个类或者接口C,都有一个唯一的初始化锁LC与之相对应。从C到LC的映射,由JVM的具体实现去自由实现。JVM在类初始化阶段期间会获取这个初始化锁,并且每一个线程至少获取一次锁来确保这个类已经被初始化过了。

      参考资料

      1. 方腾飞:《Java并发编程的艺术》

        【死磕Java并发】—–Java内存模型之从JMM角度分析DCL

        免费领取10G资料包与项目实战视频资料
        原文出处:http://cmsblogs.com/ 『chenssy

        DCL,即Double Check Lock,中卫双重检查锁定。其实DCL很多人在单例模式中用过,LZ面试人的时候也要他们写过,但是有很多人都会写错。他们为什么会写错呢?其错误根源在哪里?有什么解决方案?下面就随LZ一起来分析

        问题分析

        我们先看单例模式里面的懒汉式:
        public class Singleton {
           private static Singleton singleton;
        
           private Singleton(){}
        
           public static Singleton getInstance(){
               if(singleton == null){
                   singleton = new Singleton();
               }
        
               return singleton;
           }
        }
        我们都知道这种写法是错误的,因为它无法保证线程的安全性。优化如下:
        public class Singleton {
           private static Singleton singleton;
        
           private Singleton(){}
        
           public static synchronized Singleton getInstance(){
               if(singleton == null){
                   singleton = new Singleton();
               }
        
               return singleton;
           }
        }
        优化非常简单,就是在getInstance方法上面做了同步,但是synchronized就会导致这个方法比较低效,导致程序性能下降,那么怎么解决呢?聪明的人们想到了双重检查 DCL:
        public class Singleton {
           private static Singleton singleton;
        
           private Singleton(){}
        
           public static Singleton getInstance(){
               if(singleton == null){                              // 1
                   synchronized (Singleton.class){                 // 2
                       if(singleton == null){                      // 3
                           singleton = new Singleton();            // 4
                       }
                   }
               }
               return singleton;
           }
        }
        就如上面所示,这个代码看起来很完美,理由如下:
        • 如果检查第一个singleton不为null,则不需要执行下面的加锁动作,极大提高了程序的性能;
        • 如果第一个singleton为null,即使有多个线程同一时间判断,但是由于synchronized的存在,只会有一个线程能够创建对象;
        • 当第一个获取锁的线程创建完成后singleton对象后,其他的在第二次判断singleton一定不会为null,则直接返回已经创建好的singleton对象;
        通过上面的分析,DCL看起确实是非常完美,但是可以明确地告诉你,这个错误的。上面的逻辑确实是没有问题,分析也对,但是就是有问题,那么问题出在哪里呢?在回答这个问题之前,我们先来复习一下创建对象过程,实例化一个对象要分为三个步骤:
        1. 分配内存空间
        2. 初始化对象
        3. 将内存空间的地址赋值给对应的引用
        但是由于重排序的缘故,步骤2、3可能会发生重排序,其过程如下:
        1. 分配内存空间
        2. 将内存空间的地址赋值给对应的引用
        3. 初始化对象
        如果2、3发生了重排序就会导致第二个判断会出错,singleton != null,但是它其实仅仅只是一个地址而已,此时对象还没有被初始化,所以return的singleton对象是一个没有被初始化的对象,如下:按照上面图例所示,线程B访问的是一个没有被初始化的singleton对象。 通过上面的阐述,我们可以判断DCL的错误根源在于步骤4:
        singleton = new Singleton();
        知道问题根源所在,那么怎么解决呢?有两个解决办法:
        1. 不允许初始化阶段步骤2 、3发生重排序。
        2. 允许初始化阶段步骤2 、3发生重排序,但是不允许其他线程“看到”这个重排序。

        解决方案

        解决方案依据上面两个解决办法即可。

        基于volatile解决方案

        对于上面的DCL其实只需要做一点点修改即可:将变量singleton生命为volatile即可:
        public class Singleton {
           //通过volatile关键字来确保安全
           private volatile static Singleton singleton;
        
           private Singleton(){}
        
           public static Singleton getInstance(){
               if(singleton == null){
                   synchronized (Singleton.class){
                       if(singleton == null){
                           singleton = new Singleton();
                       }
                   }
               }
               return singleton;
           }
        }
        当singleton声明为volatile后,步骤2、步骤3就不会被重排序了,也就可以解决上面那问题了。

        基于类初始化的解决方案

        该解决方案的根本就在于:利用classloder的机制来保证初始化instance时只有一个线程。JVM在类初始化阶段会获取一个锁,这个锁可以同步多个线程对同一个类的初始化
        public class Singleton {
           private static class SingletonHolder{
               public static Singleton singleton = new Singleton();
           }
        
           public static Singleton getInstance(){
               return SingletonHolder.singleton;
           }
        }
        这种解决方案的实质是:运行步骤2和步骤3重排序,但是不允许其他线程看见。
        Java语言规定,对于每一个类或者接口C,都有一个唯一的初始化锁LC与之相对应。从C到LC的映射,由JVM的具体实现去自由实现。JVM在类初始化阶段期间会获取这个初始化锁,并且每一个线程至少获取一次锁来确保这个类已经被初始化过了。

        参考资料

        1. 方腾飞:《Java并发编程的艺术》
posted @ 2019-12-15 14:52  弱水三千12138  阅读(111)  评论(0)    收藏  举报