java内存模型之一

1.1并发编程模型的两个关键问题:

 线程之间的通信机制有两种:共享内存和消息传递,在共享内存的并发模型里,线程之间共享程序的公共状态,通过写-读内存中的公共状态进行隐式通信。在消息传递的并发模型里,线程之间没有公共状态,线程之间必须通过发送消息来显式进行通信。  

1.2Java内存模型的抽象结构:

  在Java中,所有实例域、静态域和数组元素都存储在堆内存中,堆内存在线程之间共享 ,局部变量(Local Variables),方 法定义参数(Java语言规范称之为Formal Method Parameters)和异常处理器参数(Exception Handler Parameters)不会在线程之间共享,它们不会有内存可见性问题,也不受内存模型的影响。  

  Java线程之间的通信由Java内存模型(本文简称为JMM)控制,JMM决定一个线程对共享 变量的写入何时对另一个线程可见。从抽象的角度来看,JMM定义了线程和主内存之间的抽 象关系:线程之间的共享变量存储在主内存(Main Memory)中,每个线程都有一个私有的本地内存(Local Memory),本地内存中存储了该线程以读/写共享变量的副本。本地内存是JMM的
一个抽象概念,并不真实存在。它涵盖了缓存、写缓冲区、寄存器以及其他的硬件和编译器优 化。Java内存模型的抽象示意如图3-1所示。

  

从图上图来看,如果线程A与线程B之间要通信的话,必须要经历下面2个步骤。
1)线程A把本地内存A中更新过的共享变量刷新到主内存中去。
2)线程B到主内存中去读取线程A之前已更新过的共享变量。
下面通过示意图来说明这两个步骤。

从整体来看,这两个步骤实质上是线程A在向线程B发送消息,而且这个通信过程必须要 经过主内存。JMM通过控制主内存与每个线程的本地内存之间的交互,来为Java程序员提供
内存可见性保证。

1.3 源代码到指令重排序 

  在执行程序时,为了提高性能,编译器和处理器常常会对指令做重排序。重排序分3种类型。

  1)编译器优化的重排序。编译器在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序。

  2)指令级并行的重排序。现代处理器采用了指令级并行技术(Instruction-Level Parallelism,ILP)来将多条指令重叠执行。如果不存在数据依赖性,处理器可以改变语句对机器指令的执行顺序。

  3)内存系统的重排序。由于处理器使用缓存和读/写缓冲区,这使得加载和存储操作看上去可能是在乱序执行。

 从Java源代码到最终实际执行的指令序列,会分别经历下面3种重排序,如下所示

上述的1属于编译器重排序,2和3属于处理器重排序。这些重排序可能会导致多线程程序 出现内存可见性问题。对于编译器,JMM的编译器重排序规则会禁止特定类型的编译器重排序(不是所有的编译器重排序都要禁止)。对于处理器重排序,JMM的处理器重排序规则会要求Java编译器在生成指令序列时,插入特定类型的内存屏障(Memory Barriers,Intel称之为 Memory Fence)指令,通过内存屏障指令来禁止特定类型的处理器重排序。

1.3 并发编程模型分类

  每个处理器上的写缓冲区,仅仅对它所在的处理器 可见。这个特性会对内存操作的执行顺序产生重要的影响:处理器对内存的读/写操作的执行 顺序,不一定与内存实际发生的读/写操作顺序一致!

为了保证内存可见性,Java编译器在生成指令序列的适当位置会插入内存屏障指令来禁 止特定类型的处理器重排序。JMM把内存屏障指令分为4类:

 

StoreLoad Barriers是一个“全能型”的屏障,它同时具有其他3个屏障的效果。现代的多处理器大多支持该屏障(其他类型的屏障不一定被所有处理器支持)。执行该屏障开销会很昂 贵,因为当前处理器通常要把写缓冲区中的数据全部刷新到内存中(Buffer Fully Flush)。

1.4happen-before

 Java使用新的JSR-133内存模型,JSR-133使用happens-before的概念来阐述操作之间的内存可见性。在JMM中,如果一 个操作执行的结果需要对另一个操作可见,那么这两个操作之间必须要存在happens-before关系。这里提到的两个操作既可以是在一个线程之内,也可以是在不同线程之间。 

与程序员密切相关的happens-before规则如下: 

  程序顺序规则:一个线程中的每个操作,happens-before于该线程中的任意后续操作。

  监视器锁规则:对一个锁的解锁,happens-before于随后对这个锁的加锁

    volatile变量规则:对一个volatile域的写,happens-before于任意后续对这个volatile域的读

  传递性:如果A happens-before B,且B happens-before C,那么A happens-before C 

注意 两个操作之间具有happens-before关系,并不意味着前一个操作必须要在后一个 操作之前执行!happens-before仅仅要求前一个操作(执行的结果)对后一个操作可见,且前一 个操作按顺序排在第二个操作之前(the first is visible to and ordered before the second)。 happens-before的定义很微妙,后文会具体说明happens-before为什么要这么定义。

1.5 重排序

  1.5.1 数据依赖性  

  如果两个操作访问同一个变量,且这两个操作中有一个为写操作,此时这两个操作之间 就存在数据依赖性。数据依赖分为下列3种类型,如表3-4所示。 前面提到过,编译器和处理器可能会对操作做重排序。编译器和处理器在重排序时,会遵守数据依赖性,编译器和处理器不会改变存在数据依赖关系的两个操作的执行顺序。

  这里所说的数据依赖性仅针对单个处理器中执行的指令序列和单个线程中执行的操作,不同处理器之间和不同线程之间的数据依赖性不被编译器和处理器考虑。

       1.5.2as-if-serial语义

  as-if-serial语义的意思是:不管怎么重排序(编译器和处理器为了提高并行度),(单线程) 程序的执行结果不能被改变。编译器、runtime和处理器都必须遵守as-if-serial语义;

      控制依赖性: 

  当代码中存在控制依赖性时,会影响指令序 列执行的并行度。为此,编译器和处理器会采用猜测(Speculation)执行来克服控制相关性对并 行度的影响。以处理器的猜测执行为例,执行线程B的处理器可以提前读取并计算a*a,然后把 计算结果临时保存到一个名为重排序缓冲(Reorder Buffer,ROB)的硬件缓存中。当操作3的条 件判断为真时,就把该计算结果写入变量i中。

1.6 顺序一致性

 1.6.1顺序一致性内存模型  顺序一致性内存模型是一个被计算机科学家理想化了的理论参考模型,它为程序员提供了极强的内存可见性保证。顺序一致性内存模型有两大特性 

   1)一个线程中的所有操作必须按照程序的顺序来执行。  

    2)(不管程序是否同步)所有线程都只能看到一个单一的操作执行顺序。在顺序一致性内存模型中,每个操作都必须原子执行且立刻对所有线程可见。

    

在概念上,顺序一致性模型有一个单一的全局内存,这个内存通过一个左右摆动的开关 可以连接到任意一个线程,同时每一个线程必须按照程序的顺序来执行内存读/写操作。从上
面的示意图可以看出,在任意时间点最多只能有一个线程可以连接到内存。当多个线程并发 执行时,图中的开关装置能把所有线程的所有内存读/写操作串行化(即在顺序一致性模型中,
所有操作之间具有全序关系)。

样例理解:  

  假设有两个线程A和B并发执行。其中A线程有3个操作,它们在程序中的顺序是: A1→A2→A3。B线程也有3个操作,它们在程序中的顺序是:B1→B2→B3。假设这两个线程使用监视器锁来正确同步:A线程的3个操作执行后释放监视器锁,随后B 线程获取同一个监视器锁。那么程序在顺序一致性模型中的执行效果将如图3-11所示。 

 

  现在我们再假设这两个线程没有做同步,下面是这个未同步程序在顺序一致性模型中的执行示意图,如图3-12所示。

 1.6.2 同步程序的顺序一致性

 1.6.3 未同步程序的顺序一致性 

  对于未同步或未正确同步的多线程程序,JMM只提供最小安全性:线程执行时读取到的 值,要么是之前某个线程写入的值,要么是默认值(0,Null,False),JMM保证线程读操作读取 到的值不会无中生有(Out Of Thin Air)的冒出来。为了实现最小安全性,JVM在堆上分配对象 时,首先会对内存空间进行清零,然后才会在上面分配对象(JVM内部会同步这两个操作)。因 此,在已清零的内存空间(Pre-zeroed Memory)分配对象时,域的默认初始化已经完成了。 

  未同步程序在JMM中的执行时,整体上是无序的,其执行结果无法预知。未同步程序在两个模型中的执行特性有如下几个差异:

  1 )顺序一致性模型保证单线程内的操作会按程序的顺序执行,而JMM不保证单线程内的操作会按程序的顺序执行(比如上面正确同步的多线程程序在临界区内的重排序)。

  2)顺序一致性模型保证所有线程只能看到一致的操作执行顺序,而JMM不保证所有线程能看到一致的操作执行顺序。

  3)JMM不保证对64位的long型和double型变量的写操作具有原子性,而顺序一致性模型保 证对所有的内存读/写操作都具有原子性。 

  第3个差异与处理器总线的工作机制密切相关。在计算机中,数据通过总线在处理器和内
存之间传递。每次处理器和内存之间的数据传递都是通过一系列步骤来完成的,这一系列步
骤称之为总线事务(Bus Transaction)。总线事务包括读事务(Read Transaction)和写事务(Write Transaction)。读事务从内存传送数据到处理器,写事务从处理器传送数据到内存,每个事务会 读/写内存中一个或多个物理上连续的字。这里的关键是,总线会同步试图并发使用总线的事 务。在一个处理器执行总线事务期间,总线会禁止其他的处理器和I/O设备执行内存的读/写。 下面,让我们通过一个示意图来说明总线的工作机制,如

  由图可知,假设处理器A,B和C同时向总线发起总线事务,这时总线仲裁(Bus Arbitration) 会对竞争做出裁决,这里假设总线在仲裁后判定处理器A在竞争中获胜(总线仲裁会确保所有 处理器都能公平的访问内存)。此时处理器A继续它的总线事务,而其他两个处理器则要等待 处理器A的总线事务完成后才能再次执行内存访问。假设在处理器A执行总线事务期间(不管 这个总线事务是读事务还是写事务),处理器D向总线发起了总线事务,此时处理器D的请求会被总线禁止。

  总线的这些工作机制可以把所有处理器对内存的访问以串行化的方式来执行。在任意时 间点,最多只能有一个处理器可以访问内存。这个特性确保了单个总线事务之中的内存读/写

操作具有原子性。

  在一些32位的处理器上,如果要求对64位数据的写操作具有原子性,会有比较大的开销。 为了照顾这种处理器,Java语言规范鼓励但不强求JVM对64位的long型变量和double型变量的 写操作具有原子性。当JVM在这种处理器上运行时,可能会把一个64位long/double型变量的写操作拆分为两个32位的写操作来执行。这两个32位的写操作可能会被分配到不同的总线事务中执行,此时对这个64位变量的写操作将不具有原子性。

 如上图所示,假设处理器A写一个long型变量,同时处理器B要读这个long型变量。处理器 A中64位的写操作被拆分为两个32位的写操作,且这两个32位的写操作被分配到不同的写事 务中执行。同时,处理器B中64位的读操作被分配到单个的读事务中执行。当处理器A和B按上 图的时序来执行时,处理器B将看到仅仅被处理器A“写了一半”的无效值。 

  注意,在JSR-133之前的旧内存模型中,一个64位long/double型变量的读/写操作可以被拆 分为两个32位的读/写操作来执行。从JSR-133内存模型开始(即从JDK5开始),仅仅只允许把 一个64位long/double型变量的写操作拆分为两个32位的写操作来执行,任意的读操作在JSR133中都必须具有原子性(即任意读操作必须要在单个读事务中执行)。

猜你喜欢

转载自www.cnblogs.com/sharing-java/p/10825115.html