[Java复习] 多线程 并发 JUC 补充

线程安全问题?

当多个线程共享同一个全局变量,做写的操作时,可能会受到其他线程的干扰。读不会发生线程安全问题。 --  Java内存模型。

非静态同步方法使用什么锁?

 this锁

静态同步方法使用什么锁?

当前类的字节码文件

什么是ThreadLocal?

ThreadLocal是给每个线程提供局部变量,每个线程可独立改变自己的副本,不会影响其他线程所对应的副本,解决线程安全问题。

ThreadLocal底层原理是map集合。

ThreadLocal内存泄漏问题?

由于ThreadLocalMap的key是弱引用,而Value是强引用。这就导致了一个问题,ThreadLocal在没有外部对象强引用时,发生GC时弱引用Key会被回收,而Value不会回收,如果创建ThreadLocal的线程一直持续运行,那么这个Entry对象中的value就有可能一直得不到回收,发生内存泄露。

如何避免泄漏?

Key是弱引用,在调用ThreadLocal的get()、set()方法时完成后再调用remove方法,将Entry节点和Map的引用关系移除,这样整个Entry对象在GC Roots分析后就变成不可达了,下次GC的时候就可以被回收。

如果使用ThreadLocal的set方法之后,没有显示的调用remove方法,就有可能发生内存泄露,所以使用完ThreadLocal之后,记得调用remove方法。

ThreadLocal<Session> threadLocal = new ThreadLocal<Session>();
try {
    threadLocal.set(new Session(1, "abc"));
    // 其它业务逻辑
} finally {
    threadLocal.remove();
}

使用ThreadLocal的典型场景如数据库连接管理,线程会话管理等场景,只适用于独立变量副本的情况,如果变量为全局共享的,则不适用在高并发下使用。

4个方法:

  • void set(Object value) :设置当前线程的线程局部变量的值。
  • public Object get() :该方法返回当前线程所对应的线程局部变量。
  • public void remove() :将当前线程局部变量的值删除。(线程结束时局部变量会被GC,显示调用remove不是必须,不过可以加快内存回收速度)
  • protected Object initialValue() :返回该线程局部变量的初始值。(延迟调用方法,仅在线程第一次调用get()或set(obj)才执行。)

ArrayBlockingQueue(ABQ)与LinkedBlockingQueue(LBQ)的区别?

  ABQ:底层数组,创建时要指定数组大小。有两个索引指针putIndex和takeIndex,不管在读或写元素,如果数组达到最后一个元素,直接将索引移动到第一个位置。                 ABQ内部一把锁,offer和take使用同一把锁。内存是预先分配,使用过程中内存开销较小(无须动态申请内存)。

  LBQ:底层单向链表,元素到来时放入链表头,从链表尾取数据。链表好处是不同提前分配内存。

             如果没有指定长度,默认Integer.MAX_VALUE。LBQ的offer和take使用不同锁。在链表头放元素和在链表尾去元素不再竞争锁,加快数据处理。

             无界时注意内存溢出问题,由于使用中动态分配内存,可能增加JVM GC负担。

线程池目的?

1. 降低资源消耗。 2. 提高响应速度。3.提高线程的可管理性。

线程池4种创建方式?

  Executors提供四种线程池:

    newCachedThreadPool :创建一个可缓存线程池, 最大线程数Integer.MAX_VALUE。

    newFixedThreadPool :创建一个定长线程池,超出的线程会在队列中等待。

    newScheduledThreadPool :创建一个定长线程池,支持定时及周期性任务执行。最大线程数Integer.MAX_VALUE。

    newSingleThreadExecutor :创建一个单线程化的线程池,它只会用唯一的工作线程来执行任务,保证所有任务按照指定顺序(FIFO, LIFO, 优先级)执行。

线程池原理/处理流程?

 ThreadPoolExector的核心参数:

  corePoolSize:核心线程数(实际运行线程数)

  maximunPoolSize:最大线程数(线程池最多创建线程数)

  keepAliveTime:当前线程池数量超过corePoolSize时,多余线程空闲时的存活时间

  unit: keepAliveTime的时间单位

  workQueue:任务队列,被提交但尚未被执行的任务

  threadFactory:线程工厂,用于创建线程

  handler:拒绝策略,当任务太多不能及时处理时,如何拒绝

    JDK内置拒绝策略:

       1. AbortPolicy:直接抛出异常

        2. CallerRunsPolicy:来着不拒策略(直接调用run方法,而不是开启线程去执行任务)

        3. DiscardOldestPolicy:丢弃最老的请求策略

        4. DiscardPolicy:默认丢弃策略,超过工作队列容量的任务被丢弃

合理配置线程池:

   CPU密集:应配置尽可能小的线程

   IO密集:应配置尽可能多的线程,因为IO操作不占用CPU,不要让CPU闲下来,应加大线程数量。

   CPU密集型时,任务可以少配置线程数,大概和机器的CPU核数相当,这样可以使得每个线程都在执行任务

   IO密集型时,大部分线程都阻塞,故需要多配置线程数,2*CPU核数

什么是Callable和Future?

  使用Callable和Future来实现获取任务结果的操作。Callable用来执行任务,产生结果,而Future用来获得结果。

   Future: A和B两个线程,如果A需要B的执行结果,那么这个线程A不需要等待B执行完毕后才拿到结果。

   使用Future模式可以先拿到一个未来的Future,等B有结果时再取真实的结果。类似ajax。

乐观锁

  总是假设乐观情况,不上锁,使用版本号(version)机制和CAS操作。

  原理:数据库表加version字段,当线程A要更新数据x时,读取x和version,提交更新时,刚才督导的version等于数据库种version时才更新。

悲观锁

  总是假设最坏情况,每次操作数据认为其他线程会修改,所以都会加锁(读锁,写锁)。Synchronized是悲观锁。

CAS无锁原理

  CAS: compare and swap。

  三个参数:V:需要更新的值(主内存), E:预期值(本地内存) ,N: 新值

  仅当V值等于E值时,才会将V的值设为N,如果V值和E值不同,则说明已经有其他线程做了更新,则当前线程什么都不做。最后,CAS返回当前V的真实值。

  CAS的缺点: ABA问题

  JUC提供带有标记的原子引用类AtomicStampedReference,通过控制变量版本保证CAS的正确性。

CountDownLatch(计数器)

  CountDownLatch是使用AQS实现的,使用AQS的state变量来存放计数器的值。

  在调用CountDownLatch的构造函数时,会调用内部类Sync的构造函数将值赋给state变量,当多个线程调用countdown方法时实际是使用CAS递减state变量的值;

  当线程调用await方法后当前线程会被放入AQS阻塞队列等待计数器为0时返回,即所有线程都调用了countdown方法时。

  最后,当计数器的值变为0时,当前线程还会调用AQS的doReleasedShared()方法激活调用await()方法而被阻塞的线程。

  场景:开会,等待所有人(线程)到齐,主持人(主线程)才开始进行会议。

CyclicBarrier(循环栅栏)

允许多个线程相互等待,即多个线程到达同步点时被阻塞,直到最后一个线程到达同步点时栅栏才会被打开;

CyclicBarrier内部没有所谓的公平锁\非公平锁的静态内部类,只是利用了ReentrantLock(独占锁)、ConditionObject(条件对象)实现了线程之间相互等待的功能

用途让一组线程互相等待,直到都到达公共屏障点才开始各自继续做各自的工作

可重复利用,每正常走完一次流程,或者异常结束流程,那么接下来一轮还是可以继续利用CyclicBarrier实现线程等待功能(赛跑,初赛,复赛,决赛)

共存亡,只要有一个线程有异常发生中断,那么其它线程都会被唤醒继续工作,然后接着就是抛异常处理

Semaphore(信号量)

  Semaphore 可以控制同时访问的线程个数,通过acquire()获取一个许可,如果没有就等待,而release()释放一个许可。

  其实和锁有点类似,它一般用于控制对某组资源的访问权限。

  适用场景:工厂有5 台机器,但是有8 个工人,一台机器同时只能被一个工人使用,只有使用完了,其他工人才能继续使用。

自旋锁与互斥锁的区别?

互斥锁:线程会从Sleep(加锁) -> Running (解锁), 过程又上下文切换,CPU抢占,信号发送等开销。

自旋锁:线程一直是Running(加锁->解锁),死循环检测锁的标志位。

公平锁与非公平锁的区别?

公平锁先到先得,按顺序进行(双向链表)。非公平是不排队直接获取锁。

Disruptor框架原理?

高性能队列,无锁机制(CAS),底层 ringbuffer(环形数组),基于事件驱动(观察者模式)。消息推送给消费者。

BlockingQueue阻塞队列,底层用锁。生产者->队列容器->消费者。

应用场景:Log4j2, Apache Storm等,它可以用来作为高性能的有界内存队列,基于生产者消费者模式,实现一个/多个生产者对应多个消费者。

它也可以认为是观察者模式的一种实现,或者发布订阅模式。

猜你喜欢

转载自www.cnblogs.com/fyql/p/11888262.html