12 | 多线程之锁优化(上):深入了解Synchronized同步锁的优化方法

你好,我是刘超。从这讲开始,我们就正式进入到第三模块——多线程性能调优。

在并发编程中,多个线程访问同一个共享资源时,我们必须考虑如何维护数据的原子性。在JDK1.5之前,Java是依靠Synchronized关键字实现锁功能来做到这点的。Synchronized是JVM实现的一种内置锁,锁的获取和释放是由JVM隐式实现。

到了JDK1.5版本,并发包中新增了Lock接口来实现锁功能,它提供了与Synchronized关键字类似的同步功能,只是在使用时需要显式获取和释放锁。

Lock同步锁是基于Java实现的,而Synchronized是基于底层操作系统的Mutex Lock实现的,每次获取和释放锁操作都会带来用户态和内核态的切换,从而增加系统性能开销。因此,在锁竞争激烈的情况下,Synchronized同步锁在性能上就表现得非常糟糕,它也常被大家称为重量级锁。

特别是在单个线程重复申请锁的情况下,JDK1.5版本的Synchronized锁性能要比Lock的性能差很多。例如,在Dubbo基于Netty实现的通信中,消费端向服务端通信之后,由于接收返回消息是异步,所以需要一个线程轮询监听返回信息。而在接收消息时,就需要用到锁来确保request session的原子性。如果我们这里使用Synchronized同步锁,那么每当同一个线程请求锁资源时,都会发生一次用户态和内核态的切换。

到了JDK1.6版本之后,Java对Synchronized同步锁做了充分的优化,甚至在某些场景下,它的性能已经超越了Lock同步锁。这一讲我们就来看看Synchronized同步锁究竟是通过了哪些优化,实现了性能地提升。

Synchronized同步锁实现原理

了解Synchronized同步锁优化之前,我们先来看看它的底层实现原理,这样可以帮助我们更好地理解后面的内容。

通常Synchronized实现同步锁的方式有两种,一种是修饰方法,一种是修饰方法块。以下就是通过Synchronized实现的两种同步方法加锁的方式:

// 关键字在实例方法上,锁为当前实例
	public synchronized void method1() {
	    // code
	}
	
	// 关键字在代码块上,锁为括号里面的对象
	public void method2() {
	    Object o = new Object();
	    synchronized (o) {
	        // code
	    }
	}

下面我们可以通过反编译看下具体字节码的实现,运行以下反编译命令,就可以输出我们想要的字节码:

javac -encoding UTF-8 SyncTest.java  //先运行编译class文件命令
javap -v SyncTest.class //再通过javap打印出字节文件

通过输出的字节码,你会发现:Synchronized在修饰同步代码块时,是由 monitorenter和monitorexit指令来实现同步的。进入monitorenter 指令后,线程将持有Monitor对象,退出monitorenter指令后,线程将释放该Monitor对象。

  public void method2();
    descriptor: ()V
    flags: ACC_PUBLIC
    Code:
      stack=2, locals=4, args_size=1
         0: new           #2                  
         3: dup
         4: invokespecial #1                  
         7: astore_1
         8: aload_1
         9: dup
        10: astore_2
        11: monitorenter //monitorenter 指令
        12: aload_2
        13: monitorexit  //monitorexit  指令
        14: goto          22
        17: astore_3
        18: aload_2
        19: monitorexit
        20: aload_3
        21: athrow
        22: return
      Exception table:
         from    to  target type
            12    14    17   any
            17    20    17   any
      LineNumberTable:
        line 18: 0
        line 19: 8
        line 21: 12
        line 22: 22
      StackMapTable: number_of_entries = 2
        frame_type = 255 /* full_frame */
          offset_delta = 17
          locals = [ class com/demo/io/SyncTest, class java/lang/Object, class java/lang/Object ]
          stack = [ class java/lang/Throwable ]
        frame_type = 250 /* chop */
          offset_delta = 4

再来看以下同步方法的字节码,你会发现:当Synchronized修饰同步方法时,并没有发现monitorenter和monitorexit指令,而是出现了一个ACC_SYNCHRONIZED标志。

这是因为JVM使用了ACC_SYNCHRONIZED访问标志来区分一个方法是否是同步方法。当方法调用时,调用指令将会检查该方法是否被设置ACC_SYNCHRONIZED访问标志。如果设置了该标志,执行线程将先持有Monitor对象,然后再执行方法。在该方法运行期间,其它线程将无法获取到该Mointor对象,当方法执行完成后,再释放该Monitor对象。

   public synchronized void method1();
    descriptor: ()V
    flags: ACC_PUBLIC, ACC_SYNCHRONIZED // ACC_SYNCHRONIZED 标志
    Code:
      stack=0, locals=1, args_size=1
         0: return
      LineNumberTable:
        line 8: 0

通过以上的源码,我们再来看看Synchronized修饰方法是怎么实现锁原理的。

JVM中的同步是基于进入和退出管程(Monitor)对象实现的。每个对象实例都会有一个Monitor,Monitor可以和对象一起创建、销毁。Monitor是由ObjectMonitor实现,而ObjectMonitor是由C++的ObjectMonitor.hpp文件实现,如下所示:

ObjectMonitor() {
   _header = NULL;
   _count = 0; //记录个数
   _waiters = 0,
   _recursions = 0;
   _object = NULL;
   _owner = NULL;
   _WaitSet = NULL; //处于wait状态的线程,会被加入到_WaitSet
   _WaitSetLock = 0 ;
   _Responsible = NULL ;
   _succ = NULL ;
   _cxq = NULL ;
   FreeNext = NULL ;
   _EntryList = NULL ; //处于等待锁block状态的线程,会被加入到该列表
   _SpinFreq = 0 ;
   _SpinClock = 0 ;
   OwnerIsThread = 0 ;
}

当多个线程同时访问一段同步代码时,多个线程会先被存放在ContentionList和_EntryList 集合中,处于block状态的线程,都会被加入到该列表。接下来当线程获取到对象的Monitor时,Monitor是依靠底层操作系统的Mutex Lock来实现互斥的,线程申请Mutex成功,则持有该Mutex,其它线程将无法获取到该Mutex,竞争失败的线程会再次进入ContentionList被挂起。

如果线程调用wait() 方法,就会释放当前持有的Mutex,并且该线程会进入WaitSet集合中,等待下一次被唤醒。如果当前线程顺利执行完方法,也将释放Mutex。

看完上面的讲解,相信你对同步锁的实现原理已经有个深入的了解了。总结来说就是,同步锁在这种实现方式中,因Monitor是依赖于底层的操作系统实现,存在用户态与内核态之间的切换,所以增加了性能开销。

锁升级优化

为了提升性能,JDK1.6引入了偏向锁、轻量级锁、重量级锁概念,来减少锁竞争带来的上下文切换,而正是新增的Java对象头实现了锁升级功能。

当Java对象被Synchronized关键字修饰成为同步锁后,围绕这个锁的一系列升级操作都将和Java对象头有关。

Java对象头

在JDK1.6 JVM中,对象实例在堆内存中被分为了三个部分:对象头、实例数据和对齐填充。其中Java对象头由Mark Word、指向类的指针以及数组长度三部分组成。

Mark Word记录了对象和锁有关的信息。Mark Word在64位JVM中的长度是64bit,我们可以一起看下64位JVM的存储结构是怎么样的。如下图所示:

锁升级功能主要依赖于Mark Word中的锁标志位和释放偏向锁标志位,Synchronized同步锁就是从偏向锁开始的,随着竞争越来越激烈,偏向锁升级到轻量级锁,最终升级到重量级锁。下面我们就沿着这条优化路径去看下具体的内容。

1.偏向锁

偏向锁主要用来优化同一线程多次申请同一个锁的竞争。在某些情况下,大部分时间是同一个线程竞争锁资源,例如,在创建一个线程并在线程中执行循环监听的场景下,或单线程操作一个线程安全集合时,同一线程每次都需要获取和释放锁,每次操作都会发生用户态与内核态的切换。

偏向锁的作用就是,当一个线程再次访问这个同步代码或方法时,该线程只需去对象头的Mark Word中去判断一下是否有偏向锁指向它的ID,无需再进入Monitor去竞争对象了。当对象被当做同步锁并有一个线程抢到了锁时,锁标志位还是01,“是否偏向锁”标志位设置为1,并且记录抢到锁的线程ID,表示进入偏向锁状态。

一旦出现其它线程竞争锁资源时,偏向锁就会被撤销。偏向锁的撤销需要等待全局安全点,暂停持有该锁的线程,同时检查该线程是否还在执行该方法,如果是,则升级锁,反之则被其它线程抢占。

下图中红线流程部分为偏向锁获取和撤销流程:

因此,在高并发场景下,当大量线程同时竞争同一个锁资源时,偏向锁就会被撤销,发生stop the word后, 开启偏向锁无疑会带来更大的性能开销,这时我们可以通过添加JVM参数关闭偏向锁来调优系统性能,示例代码如下:

-XX:-UseBiasedLocking //关闭偏向锁(默认打开)

-XX:+UseHeavyMonitors  //设置重量级锁

2.轻量级锁

当有另外一个线程竞争获取这个锁时,由于该锁已经是偏向锁,当发现对象头Mark Word中的线程ID不是自己的线程ID,就会进行CAS操作获取锁,如果获取成功,直接替换Mark Word中的线程ID为自己的ID,该锁会保持偏向锁状态;如果获取锁失败,代表当前锁有一定的竞争,偏向锁将升级为轻量级锁。

轻量级锁适用于线程交替执行同步块的场景,绝大部分的锁在整个同步周期内都不存在长时间的竞争。

下图中红线流程部分为升级轻量级锁及操作流程:

3.自旋锁与重量级锁

轻量级锁CAS抢锁失败,线程将会被挂起进入阻塞状态。如果正在持有锁的线程在很短的时间内释放资源,那么进入阻塞状态的线程无疑又要申请锁资源。

JVM提供了一种自旋锁,可以通过自旋方式不断尝试获取锁,从而避免线程被挂起阻塞。这是基于大多数情况下,线程持有锁的时间都不会太长,毕竟线程被挂起阻塞可能会得不偿失。

从JDK1.7开始,自旋锁默认启用,自旋次数由JVM设置决定,这里我不建议设置的重试次数过多,因为CAS重试操作意味着长时间地占用CPU。

自旋锁重试之后如果抢锁依然失败,同步锁就会升级至重量级锁,锁标志位改为10。在这个状态下,未抢到锁的线程都会进入Monitor,之后会被阻塞在_WaitSet队列中。

下图中红线流程部分为自旋后升级为重量级锁的流程:

在锁竞争不激烈且锁占用时间非常短的场景下,自旋锁可以提高系统性能。一旦锁竞争激烈或锁占用的时间过长,自旋锁将会导致大量的线程一直处于CAS重试状态,占用CPU资源,反而会增加系统性能开销。所以自旋锁和重量级锁的使用都要结合实际场景。

在高负载、高并发的场景下,我们可以通过设置JVM参数来关闭自旋锁,优化系统性能,示例代码如下:

-XX:-UseSpinning //参数关闭自旋锁优化(默认打开) 
-XX:PreBlockSpin //参数修改默认的自旋次数。JDK1.7后,去掉此参数,由jvm控制

动态编译实现锁消除/锁粗化

除了锁升级优化,Java还使用了编译器对锁进行优化。JIT 编译器在动态编译同步块的时候,借助了一种被称为逃逸分析的技术,来判断同步块使用的锁对象是否只能够被一个线程访问,而没有被发布到其它线程。

确认是的话,那么 JIT 编译器在编译这个同步块的时候不会生成 synchronized 所表示的锁的申请与释放的机器码,即消除了锁的使用。在 Java7 之后的版本就不需要手动配置了,该操作可以自动实现。

锁粗化同理,就是在 JIT 编译器动态编译时,如果发现几个相邻的同步块使用的是同一个锁实例,那么 JIT 编译器将会把这几个同步块合并为一个大的同步块,从而避免一个线程“反复申请、释放同一个锁”所带来的性能开销。

减小锁粒度

除了锁内部优化和编译器优化之外,我们还可以通过代码层来实现锁优化,减小锁粒度就是一种惯用的方法。

当我们的锁对象是一个数组或队列时,集中竞争一个对象的话会非常激烈,锁也会升级为重量级锁。我们可以考虑将一个数组和队列对象拆成多个小对象,来降低锁竞争,提升并行度。

最经典的减小锁粒度的案例就是JDK1.8之前实现的ConcurrentHashMap版本。我们知道,HashTable是基于一个数组+链表实现的,所以在并发读写操作集合时,存在激烈的锁资源竞争,也因此性能会存在瓶颈。而ConcurrentHashMap就很很巧妙地使用了分段锁Segment来降低锁资源竞争,如下图所示:

总结

JVM在JDK1.6中引入了分级锁机制来优化Synchronized,当一个线程获取锁时,首先对象锁将成为一个偏向锁,这样做是为了优化同一线程重复获取导致的用户态与内核态的切换问题;其次如果有多个线程竞争锁资源,锁将会升级为轻量级锁,它适用于在短时间内持有锁,且分锁有交替切换的场景;轻量级锁还使用了自旋锁来避免线程用户态与内核态的频繁切换,大大地提高了系统性能;但如果锁竞争太激烈了,那么同步锁将会升级为重量级锁。

减少锁竞争,是优化Synchronized同步锁的关键。我们应该尽量使Synchronized同步锁处于轻量级锁或偏向锁,这样才能提高Synchronized同步锁的性能;通过减小锁粒度来降低锁竞争也是一种最常用的优化方法;另外我们还可以通过减少锁的持有时间来提高Synchronized同步锁在自旋时获取锁资源的成功率,避免Synchronized同步锁升级为重量级锁。

这一讲我们重点了解了Synchronized同步锁优化,这里由于字数限制,也为了你能更好地理解内容,目录中12讲的内容我拆成了两讲,在下一讲中,我会重点讲解Lock同步锁的优化方法。

思考题

请问以下Synchronized同步锁对普通方法和静态方法的修饰有什么区别?

// 修饰普通方法
	public synchronized void method1() {
	    // code
	}
	
	// 修饰静态方法
	public  synchronized static void method2() {
	    // code
	}

期待在留言区看到你的答案。也欢迎你点击“请朋友读”,把今天的内容分享给身边的朋友,邀请他一起学习。

unpreview

精选留言

  • bro.

    2019-06-18 17:15:39

    Synchronized锁升级步骤

    1. 偏向锁:JDK6中引入的一项锁优化,它的目的是消除数据在无竞争情况下的同步原语,进一步提高程序的运行性能 ,
    2. 偏向锁会偏向于第一个获得它的线程,如果在接下来的执行过程中,该锁没有被其他的线程获取,则持有偏向锁的线程将永远不需要同步。大多数情况下,锁不仅不存在多线程竞争,而且总是由同一线程多次获得,为了让线程获得锁的代价更低而引入了偏向锁
    3. 当锁对象第一次被线程获取的时候,线程使用CAS操作把这个锁的线程ID记录再对象Mark Word之中,同时置偏向标志位1。以后该线程在进入和退出同步块时不需要进行CAS操作来加锁和解锁,只需要简单地测试一下对象头的Mark Word里是否存储着指向当前线程的偏向锁。如果测试成功,表示线程已经获得了锁。
    4. 如果线程使用CAS操作时失败则表示该锁对象上存在竞争并且这个时候另外一个线程获得偏向锁的所有权。当到达全局安全点(safepoint,这个时间点上没有正在执行的字节码)时获得偏向锁的线程被挂起,膨胀为轻量级锁(涉及Monitor Record,Lock Record相关操作,这里不展开),同时被撤销偏向锁的线程继续往下执行同步代码。
    5. 当有另外一个线程去尝试获取这个锁时,偏向模式就宣告结束
    6. 线程在执行同步块之前,JVM会先在当前线程的栈帧中创建用于存储锁记录(Lock Record)的空间,并将对象头中的Mard Word复制到锁记录中,官方称为Displaced Mark Word。然后线程尝试使用CAS将对象头中的Mark Word替换为指向锁记录的指针。如果成功,当前线程获得锁,如果失败,表示其他线程竞争锁,当前线程便尝试使用自旋来获取锁。如果自旋失败则锁会膨胀成重量级锁。如果自旋成功则依然处于轻量级锁的状态
    7. 轻量级锁的解锁过程也是通过CAS操作来进行的,如果对象的Mark Word仍然指向线程的锁记录,那就用CAS操作把对象当前的Mark Word和线程中赋值的Displaced Mark Word替换回来,如果替换成功,整个同步过程就完成了,如果替换失败,就说明有其他线程尝试过获取该锁,那就要在释放锁的同时,唤醒被挂起的线程
    8. 轻量级锁提升程序同步性能的依据是:对于绝大部分的锁,在整个同步周期内都是不存在竞争的(区别于偏向锁)。这是一个经验数据。如果没有竞争,轻量级锁使用CAS操作避免了使用互斥量的开销,但如果存在锁竞争,除了互斥量的开销外,还额外发生了CAS操作,因此在有竞争的情况下,轻量级锁比传统的重量级锁更慢
    简单概括为:
    1. 检测Mark Word里面是不是当前线程ID,如果是,表示当前线程处于偏向锁
    2. 如果不是,则使用CAS将当前线程ID替换到Mark Word,如果成功则表示当前线程获得偏向锁,设置偏向标志位1
    3. 如果失败,则说明发生了竞争,撤销偏向锁,升级为轻量级锁
    4. 当前线程使用CAS将对象头的mark Word锁标记位替换为锁记录指针,如果成功,当前线程获得锁
    5. 如果失败,表示其他线程竞争锁,当前线程尝试通过自旋获取锁 for(;;)
    6. 如果自旋成功则依然处于轻量级状态
    7. 如果自旋失败,升级为重量级锁
    - 索指针:在当前线程的栈帧中划出一块空间,作为该锁的锁记录,并且将锁对象的标记字段复制到改锁记录中!
    作者回复

    2019-06-19 09:36:22

  • 学无止境0033

    2019-06-19 09:19:40

    很少评论,但今天看的这个mark word对象和锁升级的图画的真是倍儿棒,一目了然,目前看过synchronized锁机制中最好理解的
  • 陆离

    2019-06-15 08:31:30

    非静态方法是对象锁,静态方法是类锁
  • 不靠谱~

    2019-06-20 08:25:57

    1.课后作业:实际对象锁和类对象锁的区别,锁对象不一样。
    2. 1.8后CurrentHashmap已经不用segment策略了,想请教一下老师1.8后是怎样保证性能的呢?
    3.对锁升级不太了解的同学可以看一下《Java并发编程的艺术》。里面有很详细的介绍,不过也是比较难理解,多看几遍。
    作者回复

    JDK1.8之后ConcurrentHashMap就放弃了分段锁策略,而是直接使用CAS+Synchronized方式保证性能,这里的锁是指锁table的首个Node节点。在添加数据的时候,如果Node数组没有值的情况,则会使用CAS添加数据,CAS成功则添加成功,失败则进入锁代码块执行插入链表或红黑树或转红黑树操作。

    2019-06-20 09:32:51

  • nightmare

    2019-06-15 09:05:53

    加在普通方法锁对象是当前对象,其ObjectMonitor就是对象的,而静态方法上,锁对象就是字节码对象,静态方法是所有对象共享的,锁粒度比较大
  • 天天向上

    2020-04-19 23:42:20

    老师在其他的回复中提到:synchronized锁只会升级,不会降级。如果系统只在某段时间高并发,升级到了重量级锁,然后系统变成低并发了,那还是重量锁,那岂不是很影响性能。
    作者回复

    不应该叫锁降级,只是在垃圾回收阶段,即STW时,没有Java线程竞争锁的情况下,会将锁状态重置。

    2020-04-27 20:04:17

  • 承香墨影

    2019-10-09 10:46:31

    老师,对我 waitSet 的理解也有歧义。
    按您的在留言中的说法以及本文的内容,那等于进入 waitSet 会有两种情况,竞争 Monitor 失败,以及调用了 wait() 方法。
    那何时会唤醒呢?
    竞争 Monitor 失败的线程会在之前线程退出 Monitor 的时候再去竞争 Monitor,但是因外 wait() 方法也会进入 waitSet 的线程,就需要等待有线程退出的时候调用 notify() 方法,这一部分的细节和数据转换是怎么一回事?如何保证两种情况进入 waitSet 的线程,都拥有再次竞争 Monitor 的权利?
    作者回复

    这里老师纠正下,当竞争Monitor失败后,是去到ContentionList队列,而运行中的线程调用了wait方法会进入到WaitSet队列,等调用notify方法,会去队列中唤醒相应的线程,进入到EntryList队列中。文中已更新。

    2019-10-13 17:38:06

  • 苏志辉

    2019-06-16 18:05:14

    entrylist和waitset那个地方不太理解,monitorenter失败后会进入entrylist吧,只有调用wait方法才会进入waitset吧,还请老师指点下
    作者回复

    在获取到参与锁资源竞争的线程会进入entrylist,线程monitorenter失败后会进入到waitset,此时说明已经有线程获取到锁了,所以需要进入等待。调用wait方法也会进入到waitset。

    2019-06-17 10:05:26

  • 浩瀚有边

    2019-07-02 09:32:10

    老师,您好,synchronized锁只会升级,不会降级吧?如果系统只在某段时间高并发,升级到了重量级锁,然后系统变成低并发了,就一直是重量级锁了吗?请老师解惑,谢谢🙏
    作者回复

    锁状态只能升级不能降级。

    2019-09-19 21:01:08

  • 天天向上

    2020-04-19 23:51:06

    偏向锁的撤销需要等待全局安全点,暂停持有该锁的线程,同时检查该线程是否还在执行该方法。对此,有疑问,全局安全点指的是什么?什么情况下会出现暂停了该线程,该线程还在执行该方法?
    作者回复

    JVM在编译代码为字节码时,在字节码的边界都可以放一个安全点(safepoint),从线程角度看,safepoint可以理解成是在代码执行过程中的一些特殊位置,当线程执行到这些位置的时候,说明虚拟机当前的状态是安全的,如果有需要,可以在这个位置暂停,暂停也就是我们说的发生stop-the-world(STW)。

    2020-04-27 20:10:51

  • 张三丰

    2020-04-08 19:31:43

    entryList有序吗?感觉这个结果多余,sync没有实现公平锁。
    作者回复

    队列就是有序的,ContentionList会被线程并发访问,为了降低对ContentionList队尾的争用,而建立了EntryList。

    sync的公平和非公平提现在进入ContentionList队列之前,有一个cas自旋获取锁操作,获取不到再进入队列。

    2020-04-14 19:45:45

  • Wheat Liu

    2020-05-31 15:01:45

    老师您好,想问一下,偏向锁的撤销为什么要在SafePoint暂停该线程呢,是因为要改变锁对象的头信息吗,那在线程运行时撤销偏向锁会出现什么问题呢
    作者回复

    如果不暂停就不能正确判断线程是否正在持有偏向锁,暂停的目的是保证能正确判断线程持有偏向锁状态以及线程执行代码块的情况。

    2020-06-02 20:26:37

  • 袁春栋

    2020-11-02 09:59:30

    老师您好,轻量级锁升级重量级锁的时候,是否会有这种情况,就是①偏向锁会在jvm启动时延迟4秒开启。②等待进行cas操作的线程数大于cpu核心线程数的二分之一将直接升级重量级锁
  • 2019-09-09 14:06:31

    课后思考及问题
    首先,给老师的画图点个赞
    这个太重要了,老师讲的相当棒,不过还是有些东西未消化,所以,特意多刷几遍。
    再刷新时有如下疑问:
    1:Mark Word 在 64 位 JVM 中的长度是 64bit,老师给出的图我计算了几次都不到64bit,是配图有问题嘛?另外,31bit21bit未使用和下面的54bit及2bit,那块没懂是什么意思?
    2:在高并发场景下,当大量线程同时竞争同一个锁资源时,偏向锁就会被撤销,发生 stop the word 后, 开启偏向锁无疑会带来更大的性能开销。
    为啥发生 stop the word ?
    开启偏向锁无疑会带来更大的性能开销,这个怎么理解,是因为发生了 stop the word,所以,才带来更大的性能开销还是别的什么带来的更大的性能开销?
    3:JIT 编译器在动态编译同步块的时候,借助了一种被称为逃逸分析的技术,来判断同步块使用的锁对象是否只能够被一个线程访问,而没有被发布到其它线程。
    确认是的话,那么 JIT 编译器在编译这个同步块的时候不会生成 synchronized 所表示的锁的申请与释放的机器码,即消除了锁的使用。
    老师逃逸分析不太理解是啥意思?能否稍微再讲解一下?
    4:锁粗化同理,就是在 JIT 编译器动态编译时,如果发现几个相邻的同步块使用的是同一个锁实例,那么 JIT 编译器将会把这几个同步块合并为一个大的同步块,从而避免一个线程“反复申请、释放同一个锁“所带来的性能开销。
    发现第一次理解的锁粗化是错误的,锁粗化——粗化主要体现在将同一个锁实例相邻的同步代码快合并到了一起,使同步代码块的粒度变大了,不过减少了反复申请和释放同一个锁所带来的性能开销。
  • 张海鹏

    2019-09-06 18:26:55

    老师,您文中提到的锁消除一块没有十分理解,意思是若只有一个线程正在使用同步块,synchronized关键字就不被编译,就不加锁,当有新的线程也调用这个代码块的时候再加锁,是这样么?另外这个“借助了一种被称为逃逸分析的技术”可以扩展讲解一下么?
    作者回复

    不是的,一旦锁消除了,就不会再使用该锁了。逃逸分析一般是对一个对象的作用域的分析,例如一个对象只能被一个线程访问到时,则会消除锁。

    2019-09-06 20:01:26

  • 晓杰

    2019-06-16 20:47:38

    感觉讲得有点晦涩啊,不知道其他人什么感觉
    作者回复

    如果哪里不懂的,可以多提问,希望我能帮助到你。

    2019-06-17 10:06:25

  • 耿嘉艺

    2020-06-15 17:43:32

    contentionList和EntryList有什么区别
  • 尔东橙

    2020-03-08 23:38:21

    老师,sychronized底层实现是操作系统里的mutex lock,这个和反汇编后的monitorenter monitorexit指令有什么关系么
    作者回复

    JVM中monitorenter和monitorexit字节码指令是依赖于底层的操作系统的Mutex Lock来实现的。

    2020-03-12 20:05:30

  • Young

    2019-09-16 22:28:16

    请问老师,如果取消自旋,那轻量级锁和重量级锁还有什么区别吗
    作者回复

    主要区别是获取锁的方式,如果没有自旋,轻量级锁是通过cas来获取锁的,cas失败则直接升级为重量级锁。

    2019-09-17 19:53:38

  • 2019-09-09 08:57:41

    课后思考及问题
    1:Synchronized 是基于底层操作系统的 Mutex Lock 实现的,每次获取和释放锁操作都会带来用户态和内核态的切换,从而增加系统性能开销。
    老师这段没完全明白能细致的描述一下嘛?
    2:接下来当线程获取到对象的 Monitor 时,Monitor 是依靠底层操作系统的 Mutex Lock 来实现互斥的,线程申请 Mutex 成功,则持有该 Mutex,其它线程将无法获取到该 Mutex。
    Monitor对象和Mutex这两个具体又是什么?以及怎么实现的?
    3:Synchronized同步锁的优化思路?
    3-1:为啥要优化Synchronized同步锁?
    因为它太重了,影响了系统的性能
    3-2:Synchronized同步锁为啥这么重?
    因为它底层的锁实现是依赖操作系统的Mutex锁实现的,依赖操作系统的底层锁实现,存在用户态和内核态的切换,因而会增加系统的开销。
    3-3:用户态和内核态的切换为什么会增加系统的开销?
    因为,线程从内核态切换到用户态时,需要保留线程当前的执行信息,待下一次切换回来后可以继续执行,所以,比较耗性能。正文老师没有讲到此点,评论区回复有这个信息,不过能给出更细致一些的描述就更好了,比如:都需要保存什么信息,保存这些信息花费的时间大概多少,花费的时间应该也有大有小吧。
    3-4:理解了Synchronized同步锁为啥那么慢,那么耗性能,下面的锁优化其实就好理解了,他们所做的工作都在于减少做那些耗性能的事情。
    3-5:偏向锁——自己获取自己加的锁,也需要用户态和内核态的切换,没必要,只有判断出自己在和自己竞争就不切换了,通过这种方式减少了用户态和内核态的切换。
    3-6:轻量锁——使用CAS的方式尝试无锁操作是否OK,如果OK,也不需要用户态和内核态的切换,还是偏向锁,否则升级为轻量锁,轻量级锁采用是CAS的方式来操作,所以,也不会进行用户态和内核态的切换。不过它只适用于线程交替执行同步块的场景,绝大部分的锁在整个同步周期内都不存在长时间的竞争。
    3-7:自旋锁——获取琐时,认为再等一会儿,其他线程就会释放锁了,所以,先等一下下。自旋就是空跑几圈CPU时钟周期不断的尝试获取锁,若获取到,则OK,否则就会升级为重量级锁。这是基于大多数情况下,线程持有锁的时间都不会太长,毕竟线程被挂起阻塞可能会得不偿失。
    3-8:重量锁——这个本质和Synchronized就一样了,上面做了这么多尝试依据避免不了用户态和内核态的切换,那就只能切换了,慢一点总比错了强。
    3-9:锁粗化——坦白讲上面的锁优化思路基本是投机取巧的策略,所以,具有一定的适用条件,如果取巧不成反而会更慢,于是又出现了这个锁优化,明确知道取巧的思路是不可行的那还是老老实实的进行用户态和内核态的切换吧!

    再请教几个问题,操作系统层面是怎么实现锁的?另外,站在JVM的角度是不清楚锁什么时候被释放的嘛?如果能比较的清楚锁什么时候被释放,待其被释放的时候去获取或者多个线程竞争获取,这些性能是否更好一些。
    WaitSet中的等待线程被唤醒重新进入EntryList,是有序进入还是无限的,我指的是在WaitSet中的次序?另外,所有竞争锁的线程都必须先进入EntryList嘛?进入后再获取监控器对象时就是有序的啦嘛?那公平锁和非公平锁,怎么提现和实现的?