JMM 与硬件内存架构对应关系
JMM抽象结构图
Java虚拟机规范中试图定义一种Java内存模型来屏蔽掉各种硬件和操作系统的内存访问差异,规定线程如何,何时能看到其他线程修改过的共享变量的值及在必要时如何同步地访问共享变量,以实现让Java程序在各种平台下都能达到一致性的内存访问效果。
Java内存模型的主要目标是定义各个变量的访问规则
即在虚拟机中将变量存储到内存和从内存中取出变量值这样的底层细节。
此处的变量
包括了实例域,静态域和构成数组对象的元素,但不包括局部变量与方法参数,因为后者是线程私有的,不存在竞争
为了获得比较好的执行效率,JMM并没有限制执行引擎使用处理器的特定寄存器或缓存来和主内存进行交互,也没有限制即时编译器调整代码执行顺序这类权限。
JMM规定了
线程、主内存、工作内存三者的交互关系
jvm模型与jmm不是同一层次的内存划分,基本是没有关系的,硬要对应起来,从变量,内存,工作内存的定义来看,
一个变量如何从主内存拷贝到工作内存,从工作内存同步回主内存的实现细节 JMM定义了以下8种操作来完成,都具备原子性
JMM 同步操作
把一个变量从主内存复制到工作内存 就要顺序执行read和load
把变量从工作内存同步回主内存 就要顺序地执行store和write操作
JMM只要求上述两个操作必须按序执行,而没有保证连续执行 也就是说read/load之间、store/write之间可以插入其它指令 如对主内存中的变量a,b访问时,一种可能出现的顺序是read a->readb->loadb->load a
JMM规定执行上述八种基础操作时必须满足如下
volatile
变量可以被看作是一种 "轻量的 synchronized
可以说是JVM提供的最轻量级的同步机制
当一个变量定义为volatile后
一次只允许一个线程持有某锁,一次只有一个线程能使用共享数据 由JMM直接保证的原子性变量操作包括read、load、use、assign、store和write六个,大致可以认为基础数据类型的访问读写是原子性的。 如果应用场景需要一个更大范围的原子性保证,JMM还提供了lock和unlock操作来满足这种需求,尽管虚拟机未把lock与unlock操作直接开放给用户使用,但是却提供了更高层次的字节码指令monitorenter和monitorexit来隐匿地使用这两个操作,这两个字节码指令反映到Java代码中就是同步块synchronized关键字,因此在synchronized块之间的操作也具备原子性
当一个线程修改了线程共享变量的值,其它线程能够立即得知这个修改。 JMM通过在变量修改后将新值同步回主内存,在变量读取前从主内存刷新变量值这种依赖主内存作为传递媒介的方法来实现可见性 无论是普通变量还是volatile变量都是如此,普通变量与volatile变量的区别是volatile的特殊规则保证了新值能立即同步到主内存,以及每使用前立即从内存刷新。因此可以说volatile保证了线程操作时变量的可见性,而普通变量则不能保证这一点。
除了volatile,Java还有两个关键字能实现可见性
unlock
前,必须先把此变量同步回主内存中(执行store
和write
)”这条规则获得的必须确保释放锁之前对共享数据做出的更改对于随后获得该锁的另一个线程可见,对域中的值做赋值和返回的操作通常是原子性的,但递增/减并不是
volatile对所有线程是立即可见的,对volatile变量所有的写操作都能立即返回到其它线程之中,换句话说,volatile变量在各个线程中是一致的,但并非基于volatile变量的运算在并发下是安全的
volatile变量在各线程的工作内存中不存在一致性问题(在各个线程的工作内存中volatile变量也可以存在不一致,但由于
每次使用之前都要先刷新,执行引擎看不到不一致的情况
因此可以认为不存在一致性问题),但Java里的运算并非原子操作,导致volatile变量的运算在并发下一样是不安全的
public class Atomicity {
int i;
void f(){
i++;
}
void g(){
i +=3;
}
}
编译后文件
void f();
0 aload_0 [this]
1 dup
2 getfield concurrency.Atomicity.i : int [17]
5 iconst_1
6 iadd
7 putfield concurrency.Atomicity.i : int [17]
// Method descriptor #8 ()V
// Stack: 3, Locals: 1
void g();
0 aload_0 [this]
1 dup
2 getfield concurrency.Atomicity.i : int [17]
5 iconst_3
6 iadd
7 putfield concurrency.Atomicity.i : int [17]
}
每个操作都产生了一个 get 和 put ,之间还有一些其他的指令 因此在获取和修改之间,另一个线程可能会修改这个域 所以,这些操作不是原子性的
再看下面这个例子是否符合上面的描述
public class AtomicityTest implements Runnable {
private int i = 0;
public int getValue() {
return i;
}
private synchronized void evenIncrement() {
i++;
i++;
}
public void run() {
while(true)
evenIncrement();
}
public static void main(String[] args) {
ExecutorService exec = Executors.newCachedThreadPool();
AtomicityTest at = new AtomicityTest();
exec.execute(at);
while(true) {
int val = at.getValue();
if(val % 2 != 0) {
System.out.println(val);
System.exit(0);
}
}
}
}
output:
1
该程序将找到奇数值并终止
尽管return i
原子性,但缺少同步使得其数值可以在处于不稳定的中间状态时被读取
由于 i 不是 volatile ,存在可视性问题 getValue() 和 evenIncrement() 必须synchronized
对于基本类型的读/写操作被认为是安全的原子性操作 但当对象处于不稳定状态时,仍旧很有可能使用原子性操作来访问他们 最明智的做法是遵循同步的规则
volatile 变量只保证可见性
在不符合以下条件规则的运算场景中,仍需要通过加锁(使用synchronized或JUC中的原子类)来保证原子性
基本上,若一个域可能会被多个任务同时访问or这些任务中至少有一个是写任务,那就该将此域设为volatile 当一个域定义为 volatile 后,将具备
1.保证此变量对所有的线程的可见性,当一个线程修改了这个变量的值,volatile 保证了新值能立即同步到主内存,其它线程每次使用前立即从主内存刷新 但普通变量做不到这点,普通变量的值在线程间传递均需要通过主内存来完成 2.禁止指令重排序。有volatile修饰的变量,赋值后多执行了一个“load addl $0x0, (%esp)”操作,这个操作相当于一个内存屏障(指令重排序时不能把后面的指令重排序到内存屏障之前的位置) 这些操作的目的是用线程中的局部变量维护对该域的精确同步
有序性:即程序执行的顺序按照代码的先后顺序执行
使用volatile变量的第二个语义是禁止指令重排序优化,
普通变量仅保证该方法执行过程所有依赖赋值结果的地方能获取到正确结果
而不保证变量赋值操作的顺序与代码执行顺序一致
因为在一个线程的方法执行过程中无法感知到这一点,这也就是JMM中描述的所谓的
线程内表现为串行的语义(Within-Thread As-If-Serial Sematics)
Map configOptions;
char[] configText;
//此变量必须定义为volatile
volatile boolean initialized = false;
//假设以下代码在线程A中执行
//模拟读取配置信息,当读取完成后
//将initialized设置为true来通知其它线程配置可用
configOptions = new HashMap();
configText = readConfigFile(fileName);
processConfigOptions(configText, configOptions);
initialized = true;
//假设以下代码在线程B中执行
//等线程A待initialized为true,代表线程A已经把配置信息初始化完成
while(!initialized) {
sleep();
}
//使用线程A中初始化好的配置信息
doSomethingWithConfig();
如果定义initialized
时没有使用volatile
,就可能会由于指令重排序优化,导致位于线程A中最后一行的代码initialized = true
被提前执行,这样在线程B中使用配置信息的代码就可能出现错误,而volatile
关键字则可以完美避免
volatile变量读操作性能消耗与普通变量几乎无差,但写操作则可能会稍慢,因为它需要在代码中插入许多内存屏障指令来保证处理器不发生乱序执行。不过即便如此,大多数场景下volatile的总开销仍然要比锁小,我们在volatile与锁之中选择的唯一依据仅仅是volatile的语义能否满足使用场景的需求。
单例模式
字节码指令
汇编指令
关键在于有volatile
修饰的变量,赋值后(前面mov %eax,0x150 (%esi) 这句便是赋值操作) 多执行了一个1ock add1 $ 0x0,(%esp)
操作,这个操作相当于一个内存屏障(Memory Barrier/Fence,指重排序时不能把后面的指令重排序到内存屏障之前的位置),只有一个CPU 访问内存时,并不需要内存屏障;但如果有两个或更多CPU 访问同一块内存,且其中有一个在观测另一个,就需要内存屏障来保证一致性了。这句指令中的add1 $0x0, (%esp)
(把ESP 寄存器的值加0) 显然是一个空操作(采用这个空操作而不是空操作指令nop
是因为IA32手册规定lock
前缀不允许配合nop
指令使用),关键在于lock 前缀,查询IA32 手册,它的作用是使得本CPU 的Cache写入内存,该写入动作也会引起别的CPU 或者别的内核无效化(Inivalidate) 其Cache,这种操作相当于对Cache 中的变量做了一次store和write
。所以通过这样一个空操作,可让前面volatile 变量的修改对其他CPU 立即可见。
那为何说它禁止指令重排序呢? 从硬件架构上讲,指令重排序是指CPU 采用了允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理。但并不是说指令任意重排,CPU需要能正确处理指令依赖情况以保障程序能得出正确的执行结果。譬如指令1把地址A中的值加10,指令2把地址A 中的值乘以2,指令3把地址B 中的值减去了,这时指令1和指令2是有依赖的,它们之间的顺序不能重排,(A+10) 2 与A2+10显然不等,但指令3 可以重排到指令i、2之前或者中间,只要保证CPU 执行后面依赖到A、B值的操作时能获取到正确的A 和B 值即可。所以在本内CPU 中,重排序看起来依然是有序的。因此lock add1 $0x0,(%esp)
指令把修改同步到内存时,意味着所有之前的操作都已经执行完成,这样便形成了“指令重排序无法越过内存屏障”的效果。
举个例子
int i = 0;
boolean flag = false;
i = 1; //语句1
flag = true; //语句2
从代码顺序上看,语句1在2前,JVM在真正执行这段代码的时候会保证语句1一定会在语句2前面执行吗?不一定,为什么呢?这里可能会发生指令重排序(Instruction Reorder) 比如上面的代码中,语句1/2谁先执行对最终的程序结果并无影响,就有可能在执行过程中,语句2先执行而1后虽然处理器会对指令进行重排序,但是它会保证程序最终结果会和代码顺序执行结果相同,靠什么保证?数据依赖性
编译器和处理器在重排序时,会遵守数据依赖性,编译器和处理器不会改变存在数据依赖关系的两个操作的执行顺序
举例
double pi = 3.14; //A
double r = 1.0; //B
double area = pi * r * r; //C
三个操作的数据依赖关系
A和C之间存在数据依赖关系,同时B和C之间也存在数据依赖关系。 因此在最终执行的指令序列中,C不能被重排序到A和B的前面(C排到A和B的前面,程序的结果将会被改变)。 但A和B之间没有数据依赖关系,编译器和处理器可以重排序A和B之间的执行顺序
该程序的两种执行顺序
这里所说的数据依赖性仅针对单个处理器中执行的指令序列和单个线程中执行的操作,在单线程程序中,对存在控制依赖的操作重排序,不会改变执行结果 但在多线程程序中,对存在控制依赖的操作重排序,可能会改变程序的执行结果。这是就需要内存屏障来保证可见性了
回头看一下JMM对volatile 变量定义的特殊规则。假定T 表示一个线程,V 和W 分别表示两个volatile变量,那么在进行read, load, use,assign,store,write时需要满定如下规则
use
,线程T才能对变量V执行load.线程T 对变量V 的use
可认为是和线程T对变量V的load,read相关联,必须连续一起出现(这条规则要求在工作内存中,每次使用V前都必须先从主内存刷新最新的值语,用于保证能看见其他线程对变量V所做的修改后的值)assign
,线程T才能对变量V 执行store
并且,只有当线程T对变量V执行的后一个动作是store
,线程T才能对变量V执行assign
线程T对变量V的assign
可以认为是和线程T对变量V的store,write相关联,必须连续一起出现(这条规则要求在工作内存中,每次修改V 后都必须立刻同步回主内存中,用于保证其他线程可以看到自己对变量V所做的修改)use
或assign
,假定动作F 是和动作A 相关联的load
或store
,假定动作P 是和动作F 相应的对变量V 的read
或write
类似的,假定动作B 是线程T 对变量W 实施的use
或assign
动作,假定动作G是和动作B 相关联的load
或store
,假定动作Q 是和动作G 相应的对变量W的read
或write
如果A 先于B,那么P先于Q (这条规则要求volatile修饰的变量不会被指令重排序优化,保证代码的执行顺序与程序的顺序相同)对于32位平台,64位的操作需要分两步来进行,与主存的同步。所以可能出现“半个变量”的状态。 在实际开发中,目前各种平台下的商用虚拟机几乎都选择把64位数据的读写操作作为原子操作来对待,因此我们在编码时一般不需要把用到的long和double变量专门声明为volatile。
JMM中程序的天然有序性可以总结为一句话:
如果在本线程内观察,所有操作都是有序的;如果在一个线程中观察另一个线程,所有操作都是无序的。
前半句是指“线程内表现为串行语义”,后半句是指“指令重排序”现象和“工作内存主主内存同步延迟”现象。
Java提供了volatile和synchronized保证线程之间操作的有序性 volatile本身就包含了禁止指令重排序的语义 synchronized则是由“一个变量在同一时刻只允许一条线程对其进行lock操作”这条规则来获得的,这个规则决定了持有同一个锁的两个同步块只能串行地进入。
如果JMM中所有的有序性都只靠volatile和synchronized,那么有一些操作将会变得很繁琐,但我们在编写Java并发代码时并没有感到这一点,这是因为Java语言中有一个先行发生(Happen-Before)
原则。这个原则非常重要,它是判断数据是否存在竞争,线程是否安全的主要依赖。
先行发生原则是指JMM中定义的两项操作之间的依序关系 如果说操作A先行发生于操作B,就是在说发生B前,A产生的影响能被B观察到,“影响”包含了修改内存中共享变量的值、发送了消息、调用了方法等。它意味着什么呢?如下例:
//线程A中执行
i = 1;
//线程B中执行
j = i;
//线程C中执行
i = 2;
下面是JMM下一些”天然的“先行发生关系,无须任何同步器协助就已经存在,可以在编码中直接使用。如果两个操作之间的关系不在此列,并且无法从下列规则推导出来的话,它们就没有顺序性保障,虚拟机可以对它们进行随意地重排序。
unlock
先行发生于后面对同一个锁的lock
。这里必须强调的是同一个锁,而”后面“是指时间上的先后。一个操作”时间上的先发生“不代表这个操作会是”先行发生“,那 如果一个操作”先行发生“是否就能推导出这个操作必定是”时间上的先发生“呢?也是不成立的,一个典型的例子就是指令重排序。所以时间上的先后顺序与先生发生原则之间基本没有什么关系,所以衡量并发安全问题一切必须以先行发生原则为准。
1.阻止屏障两侧的指令重排序 2.强制把写缓冲区/高速缓存中的脏数据等写回主内存,让缓存中相应的数据失效
java的内存屏障实际上也是上述两种的组合,完成一系列的屏障和数据同步功能
LoadLoad屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。 StoreStore屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。 LoadStore屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。 StoreLoad屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能
volatile
的内存屏障策略非常严格保守
在每个volatile写操作前插入StoreStore屏障,在写操作后插入StoreLoad屏障 在每个volatile读操作前插入LoadLoad屏障,在读操作后插入LoadStore屏障
由于内存屏障的作用,避免了volatile变量和其它指令重排序、线程之间实现了通信,使得volatile表现出了锁的特性