GIL 信号量 event事件 线程queue

GIL全局解释器锁

官方解释:
In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple
native threads from executing Python bytecodes at once. This lock is necessary mainly
because CPython’s memory management is not thread-safe.

大译:
python解释器有很多种  最常见的就是Cpython解释器
GIL本质也是一把互斥锁:将并发变成串行牺牲效率保证数据的安全
用来阻止同一个进程下的多个线程的同时执行(同一个进程内多个线程无法实现并行但是可以实现并发)
GIL的存在是因为CPython解释器的内存管理不是线程安全的,这种不安全是来自于垃圾回收机制,每个进程下都会有一个内存管理线程

在一个python的进程内,不仅有test.py的主线程或者由该主线程开发的其他线程,还有解释器开启的来及回收等解释器级别的线程,总之,所有线程都运行在这一个进程内.

所有线程的任务,都需要将代码传给解释器去执行,所以首先要解决的是能够访问到解释器代码
如果多个线程的target = work name执行流程是:

多个线程先访问到解释器的代码,即拿到执行权限,然后将target的代码交给解释器的代码执行,解释器的代码是所有线程共享的,所以来及回收线程也可能访问到解释器的代码而去执行,
这就导致了一个问题:对于共一个数据
100,在线程1执行x = 100的同时,垃圾回收机制执行的是回收100的操作,所以需要通过添加GIL锁,保证python解释器同一时间只能执行一个任务代码

问题: python的多线程没法利用多个优势,是不是就没用了

答: 研究python的多线程是否有用需要分情况讨论

例:

1.四个计算密集型任务, 每个10s

单核情况:

开线程更省资源

多核情况:

开进程 10s

开线程 40s

2.四个IO密集型任务, 每个10s

单核情况:

开线程更省资源

多核情况:

开线程更省资源
from multiprocessing import Process
from threading import Thread
import time, os
​
# 计算密集型
def func():
    res = 0
    for i in range(10000):
        res *= 1# IO 密集型
def func():
    time.sleep(3)
​
if __name__ == '__main__':
    print(os.cpu_count())
    list = []
    start = time.time()
    for i in range(4):
        p = Process(target=func) # 多进程
        # 计算密集型运行时间:0.21994638442993164  
        # IO密集型运行时间:3.2253575325012207
        p = Thread(target=func) # 多线程
        # 运行时间:0.003988504409790039  
        # IO密集型运行时间:3.0033791065216064
        list.append(p)
        p.start()
    for p in list:
        p.join()  # 等待所有子进程/子线程运行结束后再运行主进程/主线程
    end = time.time()
    print('运行时间:%s'%(end - start))
​

 

死锁/递归锁

指的是两个进程或线程在执行的过程中,因争抢资源而造成的一种互相等待的现象.

注意: 自己千万不要轻易处理锁

 

Rlock 递归锁

Rlock可以被第一个抢到锁的人连续的acquire和release
每acquire一次,锁身上的计数加一
每release一个,锁身上的计数减一
只要锁的计数不为0,其他进程/线程都不能抢
from threading import Thread, Lock
import time
​
​
# 生成两把锁
mutexA = Lock()
mutexB = Lock()
​
class MyThread(Thread):
    def run(self):
        self.func1()
        self.func2()
​
    def func1(self):
        mutexA.acquire()
        print('%s抢到了A锁'%self.name)  # self.name 等价于 current_thread(),name
        mutexB.acquire()
        print('%s抢到了B锁' % self.name)
        mutexB.release()
        print('%s释放了B锁' % self.name)
        mutexA.release()
        print('%s释放了A锁' % self.name)
​
    def func2(self):
        mutexB.acquire()
        print('%s抢到了B锁' % self.name)
        time.sleep(1)
        mutexA.acquire()
        print('%s抢到了A锁' % self.name)
        mutexA.release()
        print('%s释放了A锁' % self.name)
        mutexB.release()
        print('%s释放了B锁' % self.name)
​
for i in range(10):
    t = MyThread()
    t.start()
​
# 递归锁
from threading import Thread, RLock
​
mutexA = mutexB = RLock()
​
class MyThread(Thread):
    def run(self):
        self.func1()
        self.func2()
​
    def func1(self):
        mutexA.acquire()
        print('%s抢到了A锁'%self.name)  # self.name 等价于 current_thread(),name
        mutexB.acquire()
        print('%s抢到了B锁' % self.name)
        mutexB.release()
        print('%s释放了B锁' % self.name)
        mutexA.release()
        print('%s释放了A锁' % self.name)
​
    def func2(self):
        mutexB.acquire()
        print('%s抢到了B锁' % self.name)
        time.sleep(1)
        mutexA.acquire()
        print('%s抢到了A锁' % self.name)
        mutexA.release()
        print('%s释放了A锁' % self.name)
        mutexB.release()
        print('%s释放了B锁' % self.name)
​
for i in range(10):
    t = MyThread()
    t.start()
View Code

信号量

互斥锁: 一把锁一把钥匙
信号量: 一把锁多把钥匙
from threading import Thread, Semaphore
import time
import random
​
sem = Semaphore(5)  # 生成一把锁五把钥匙
def func(name):
    sem.acquire()
    print('%s进门了'%name)
    time.sleep(random.randint(1, 3))
    sem.release()
    print('%s出门了'%name)
​
for i in range(10):
    t = Thread(target=func, args=(i, ))
    t.start()

event事件

e.set() 发信号
e.wait() 等待信号
from threading import Thread, Event
import time
​
​
e = Event()
def light():
    print('红灯')
    time.sleep(3)
    e.set()
    print('绿灯')
​
def car(name):
    print('%s等红灯'%name)
    e.wait()
    print('%s开车了'%name)
​
t = Thread(target=light)
t.start()
​
for i in range(10):
    t = Thread(target=car, args=('车手%i'%i, ))
    t.start()

线程queue

同一个进程下的多个线程本来就是数据共享,为什么还要用队列?
因为队列是 管道+锁,使用队列就不需要自己动手操作锁的问题
import queue
​
q = queue.Queue()
q.put('one')
q.put('two')
q.put('three')
print(q.get())  # >>> one  先进先出
​
q = queue.LifoQueue()
q.put('one')
q.put('two')
q.put('three')
print(q.get())  # >>> three  堆栈 先进后出
​
q = queue.PriorityQueue()  # 数字越小,优先级越高
q.put((10, 'one'))
q.put((1, 'two'))
q.put((5, 'three'))
print(q.get())  # >>> (1, 'two')

 

猜你喜欢

转载自www.cnblogs.com/waller/p/11354046.html