java并发编程(十)性能与可伸缩行

线程的最主要目的是提高程序的运行性能
要想通过并发来获得更好的性能,需要努力做好两件事情:更有效地利用现有处理资源,以及在出现新的处理资源时使程序尽可能地利用这些新资源。从性能监视的视角来看,CPU需要尽可能保持忙碌状态。这也就是程序的性能与可伸缩性。

线程引入的开销

尽管使用多个线程的目标是提升整体性能,但与单线程的方法相比,使用多个线程总会引人一些额外的性能开销。造成这些开销的操作包括:线程之间的协调(例如加锁、触发信号以及内存同步等),增加的上下文切换,线程的创建和销毁,以及线程的调度等。
一个并发设计很糟糕的应用程序,其性能甚至比实现相同功能的串行程序的性能还要差。
对于为了提升性能而引入的线程来说,并行带来的性能提升必须超过并发导致的开销。

  • 上下文切换
    切换上下文需要一定的开销,而在线程调度过程中需要访问由操作系统和JVM共享的数据结构,但上下文切换的开销并不只是包含JVM和操作系统的开销。当一个新的线程被切换进来时,它所需要的数据可能不在当前处理器的本地缓存中,因此上下文切换将导致一些缓存缺失,因而线程在首次调度运行时会更加缓慢。
  • 内存同步
    同步操作的性能开销包括多个方面。在synchronized和volatile提供的可见性保证中可能会使用一些特殊指令,它们将抑制一些编译器优化操作。在内存栅栏中,大多数操作都是不能被重排序的。
    在评估同步操作带来的性能影响时,区分有竞争的同步和无竞争的同步非常重要。 synchronized机制针对无竞争的同步进行了优化(volatile通常是非竞争的)这个基本的机制已经非常快了,并且JVM还能进行额外的优化以进一步降低或消除开销。因此,不要过度担心非竞争同步带来的开销,我们应该将优化重点放在那些发生锁竞争的地方。
  • 阻塞
    当线程阻塞时,需要被挂起,在这个过程中将包含两次额外的上下文切换,以及所有必要的操作系统操作和缓存操作:被阻塞的线程在其执行时间片还未用完之前就被交换出去,而在随后当要获取的锁或者其他资源可用时,又再次被切换回来。(由于锁竞争而导致阻塞时,线程在持有锁时将存在一定的开销:当它释放锁时,必须告诉操作系统恢复运行阻塞的线程。)

减少锁的竞争

串行操作会降低可伸缩性,并且上下文切换也会降低性能。在锁上发生竞争时将同时导致这两种问题,因此减少锁的竞争能够提高性能和可伸缩性。

  • 缩小锁的范围(“快进快出”)
    降低发生竞争可能性的一种有效方式就是尽可能缩短锁的持有时间。例如,可以将一些与锁无关的代码移出同步代码块,尤其是那些开销较大的操作,以及可能被阻塞的操作,例如l/O操作。
  • 减小锁的粒度
    锁分解和锁分段等技术可以减小锁的粒度,从而降低锁的竞争。
    锁分解:如果一个锁需要保护多个相互独立的状态变量,那么可以将这个锁分解为多个锁,并且每个锁只保护一个变量,从而提高可伸缩性,并最终降低每个锁被请求的频率。
    锁分段:典型的ConcurrentHashMap就是采用了分段锁的思想。锁分段的一个劣势在于:与采用单个锁来实现独占访问相比,要获取多个锁来实现独占访问将更加困难并且开销更高。解决办法参考ConcurrentHashMap的size方法实现。
  • 避免热点域
    每个操作都请求多个变量时,锁的粒度将很难降低。这是在性能与可伸缩性之间相互制 衡的另一个方面,一些常见的优化措施,例如将一些反复计算的结果缓存起来,都会引人一些 “热点域(Hot Field) ”,而这些热点域往往会限制可伸缩性。
  • 一些替换独占锁的方法
    降低竞争锁还有一种方式是放弃使用独占锁,从而有助于使用一种友好并发的方式来管理共享状态。例如,使用并发容器、读·写锁、不可变对象以及原子变量。
    ReadWriteLock实现了一种在多个读取操作以及单个写人操作情况下的加锁规则,比如ReadWriteLock对于只读的数据结构,其中包含的不变性可以完全不需要加锁操作。
    原子变量提供了一种方式来降低更新“热点域"时的开销,例如静态计数器、序列发生器、或者对链表数据结构中头节点的引用。
发布了56 篇原创文章 · 获赞 4 · 访问量 3万+

猜你喜欢

转载自blog.csdn.net/xs925048899/article/details/104677665