一、上下文切换
单核处理器也支持多线程执行代码,CPU通过给每个线程分配CPU时间片来实现这个机制,时间片一般是几十毫秒.
CPU通过时间片分配算法来循环执行任务,当前执行一个时间片后会切换到下一个任务.但是在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这个任务的状态. 所以任务从保存到再加载的过程,就是一次上下文切换. 上下文切换会影响多线程的执行速度.
Linux可以通过vmstat来查看上下文切换的次数: vmstat 1, CS(Content Switch)列表示上下文切换的次数,
如何减少上下文切换?
无锁并发编程、CAS算法、使用最少线程和使用协程.
无锁并发编程: 多线程竞争锁时,会引起上下文切换,所以多线程编程时,可以使用一些办法来避免使用锁,如:将数据的ID按照HASH算法取模分段,不同的线程处理不同段的数据.
CAS算法: Java的Atomic包使用CAS算法来更新数据,而不需要加锁.
使用最少线程: 避免创建不需要的线程,比如任务很少,但是创建了很多线程来处理, 这样会造成大量的线程都处于等待状态.
协程: 在单线程里实现多任务的调度,并在单线程里维持多个任务间的切换.
二、死锁
锁是个非常有用的工具,使用场景非常多,因为它使用简单、易于理解, 同时也带来一些困扰,那就是可能会引起死锁,一旦产生死锁,就会造成系统功能不可用, 死锁示例,线程1和线程2互相等待对方释放锁:
public class DeadLockDemo { private static String A = "A"; private static String B = "B"; public static void main(String[] args) { new DeadLockDemo().deadLock(); } private void deadLock(){ Thread thread1 = new Thread(() -> { synchronized (A) { try { Thread.sleep(2000); } catch (InterruptedException e) { e.printStackTrace(); } synchronized (B) { System.out.println(1); } } }); Thread thread2 = new Thread(() -> { synchronized (B) { synchronized (A) { System.out.println(2); } } }); thread1.start(); thread2.start(); } }
运行程序,可以借助 jconsole或jstack 查看分析死锁的线程,一旦出现死锁,业务是可感知的,因为不能继续提供服务了. 现实中我们不会写出这样的代码,但是在复杂的场景中,比如thread1拿到锁之后,因为一些异常情况没有释放锁,又或者thread1拿到一个数据库锁,释放锁的时候抛出了异常,没释放掉.
如何避免死锁?
避免一个线程同时获取多个锁.
避免一个线程在锁内同时占用多个资源,尽量保证每个线程只占用一个锁.
尝试使用定时锁,使用lock.tryLock(timeout)来替代使用内部锁机制.
对于数据库锁,加锁和解锁必须在一个数据库连接里,否则会出现锁失败的情况.
三、资源限制的挑战
什么是资源限制?
资源限制是指在进行并发编程时,程序的执行速度受限于计算机硬件资源或软件资源, 例如服务器的带宽只有2MB/s, 某个资源的下载速度是 1MB/s, 系统启动10个线程下载资源, 下载速度不会变成10MB/s, 硬件资源限制有带宽的上传/下载速度、硬盘读写速度和CPU的处理速度. 软件资源的限制有: 数据库的连接数和socket连接数等.
资源限制引发的问题
在并发编程中,将代码执行速度加快的原则是将代码中串行执行的部分变成并发执行,但是如果将某段串行的代码并发执行,因为受限与资源,仍然在串行执行,这个时候程序不仅不会加快执行,反而会更慢,因为增加了上下文切换和资源调度的时间.
如何解决资源限制的问题
对于硬件资源限制,可以考虑使用集群并行执行程序. 对于软件资源的限制,可以考虑使用资源池将资源复用.
四、小结
多使用JDK提供的并发容器工具来解决并发问题, 因为这些类都经过了充分的测试和优化.