【python】 Multithreading(下)

在这里插入图片描述

转载


1 什么是线程

线程(Thread)也叫轻量级进程,是操作系统能够进行运算调度的最小单位,它被包涵在进程之中,是进程中的实际运作单位。线程自己不拥有系统资源,只拥有一点儿在运行中必不可少的资源,但它可与同属一个进程的其它线程共享进程所拥有的全部资源。一个线程可以创建和撤消另一个线程,同一进程中的多个线程之间可以并发执行。

举个简单的例子来理解下:

假定有一 7 * 24 小时不停工的工厂,由于其电力有限,一次仅供一个车间使用,当一个车间在生产时,其他车间停工。

在这里我们可以理解

这个工厂相当于操作系统

供电设备相当于 CPU

一个车间相当于一个进程

一个车间里,可以有很多工人。他们协同完成一个任务。车间的空间是工人们共享的,这里一个工人就相当于一个线程,一个进程可以包括多个线程。比如许多房间是每个工人都可以进出的。这象征一个进程的内存空间是共享的,每个线程都可以使用这些共享内存。

有时候资源有限,比如有些房间最多只能容纳一个人,当一个人占用的时候,其他人就不能进去,只能等待。这代表一个线程使用某些共享内存时,其他线程必须等它结束,才能使用这一块内存。

1.1 Mutex

一个防止他人进入的简单方法,就是门口加一把锁。先到的人锁上门,后到的人看到上锁,就在门口排队,等锁打开再进去。这就叫 ”互斥锁”(Mutual exclusion,缩写 Mutex ),防止多个线程同时读写某一块内存区域。

1.2 Semaphore

还有些房间,可以同时容纳 n 个人,比如厨房。也就是说,如果人数大于 n,多出来的人只能在外面等着。这好比某些内存区域,只能供给固定数目的线程使用。这时的解决方法,就是在门口挂 n 把钥匙。进去的人就取一把钥匙,出来时再把钥匙挂回原处。后到的人发现钥匙架空了,就知道必须在门口排队等着了。这种做法叫做 ”信号量”( Semaphore ),用来保证多个线程不会互相冲突。

不难看出, mutex 是 semaphore 的一种特殊情况(n=1时)。也就是说,完全可以用后者替代前者。但是,因为 mutex 较为简单,且效率高,所以在必须保证资源独占的情况下,还是采用这种设计。

1.3 线程的基本状态

线程有 就绪、阻塞、运行三种基本状态。

  1. 就绪状态是指线程具备运行的所有条件,逻辑上可以运行,在等待处理机;
  2. 运行状态是指线程占有处理机正在运行;
  3. 阻塞状态是指线程在等待一个事件(如某个信号量),逻辑上不可执行。

三种状态的相互转化如下图所示:

在这里插入图片描述

2 多线程的优势

那么,问题来了,多线程和单线程相比有什么优势呢?

优势是明显的,可以提高资源利用率,让程序响应更快。单线程是按顺序执行,例如有一单线程程序执行如下操作:

5秒读取文件A
3秒处理文件A
5秒读取文件B
3秒处理文件B

则需要 16s 完成,如果开启两个线程来执行,则如下所示:

5秒读取文件A
5秒读取文件B + 3秒处理文件A
3秒处理文件B

则需要 13s 完成。

3 牛刀小试

3.1 单线程——听歌 or 看电影

from time import ctime, sleep

def music(name):
    for i in range(2):
        print("我正在听%s! %s"%(name,ctime()))
        sleep(1) # 1s  

def movie(name):
    for i in range(2):
        print("我正在看%s! %s"%(name,ctime()))
        sleep(2) # 2s
        
if __name__=="__main__":
    music("说谎.mp3")
    movie("杜拉拉升职记.mp4")
    print("all over %s"%ctime())

output

我正在听说谎.mp3! Fri Jan 22 14:05:02 2021
我正在听说谎.mp3! Fri Jan 22 14:05:03 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:04 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:06 2021
all over Fri Jan 22 14:05:08 2021

3.2 多线程——同时听歌和看电影

同时听歌和看电影

import threading
from time import ctime,sleep

def music(name):
    for i in range(2):
        print("我正在听%s! %s"%(name,ctime()))
        sleep(1) # 1s  

def movie(name):
    for i in range(2):
        print("我正在看%s! %s"%(name,ctime()))
        sleep(5) # 2s

threads = []
t1 = threading.Thread(target=music,args=("说谎.mp3",))
threads.append(t1)
t2 = threading.Thread(target=movie,args=("杜拉拉升职记.mp4",))
threads.append(t2)

if __name__=="__main__":
    for t in threads: # for 循环里面是子进程
        t.setDaemon(True)
        t.start()
    t.join() # 加入 join 后等待 for 循环结束才执行主进程
        
    print("all over %s"%ctime())

output

我正在听说谎.mp3! Fri Jan 22 14:05:13 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:13 2021
我正在听说谎.mp3! Fri Jan 22 14:05:14 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:18 2021
all over Fri Jan 22 14:05:23 2021

更简洁的写法

import threading
from time import ctime,sleep

def music(name):
    for i in range(2):
        print("我正在听%s! %s"%(name,ctime()))
        sleep(1) # 1s  

def movie(name):
    for i in range(2):
        print("我正在看%s! %s"%(name,ctime()))
        sleep(5) # 2s
        
def player(name):
    r = name.split(".")[1]
    if r == "mp3":
        music(name)
        
    elif r == "mp4":
        movie(name)
        
    else:
        print("不支持当前播放文件的格式!")
        
list1 =["说谎.mp3","杜拉拉升职记.mp4"]
threads = []

if __name__=="__main__":
    # 启动线程
    for i in range(len(list1)): # for 循环里面是子进程
        t = threading.Thread(target=player,args=(list1[i],)) # 这个逗号非常关键
        threads.append(t)
        t.start()

    for t in threads:
        t.join()

    # 主线程
    print("all over %s"%ctime())

output

我正在听说谎.mp3! Fri Jan 22 14:05:23 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:23 2021
我正在听说谎.mp3! Fri Jan 22 14:05:24 2021
我正在看杜拉拉升职记.mp4! Fri Jan 22 14:05:28 2021
all over Fri Jan 22 14:05:33 2021

再集成一下,进一步简洁

import threading
from time import ctime,sleep

def super_player(name,time):
    for i in range(2):
        print("Start playing: %s! %s"%(name, ctime()))
        sleep(time)
        
dict1 ={
    
    "说谎.mp3":1,"雨人.mp4":5,"晚安.mp3":2}
threads = []

if __name__=="__main__":
    # 启动线程
    for name,time in dict1.items(): # for 循环里面是子进程
        t = threading.Thread(target=super_player,args=(name,time))
        threads.append(t)
        t.start()

    for t in threads:
        t.join()

    # 主线程
    print("all over %s"%ctime())

output

Start playing: 说谎.mp3! Fri Jan 22 14:05:33 2021
Start playing: 雨人.mp4! Fri Jan 22 14:05:33 2021
Start playing: 晚安.mp3! Fri Jan 22 14:05:33 2021
Start playing: 说谎.mp3! Fri Jan 22 14:05:34 2021
Start playing: 晚安.mp3! Fri Jan 22 14:05:35 2021
Start playing: 雨人.mp4! Fri Jan 22 14:05:38 2021
all over Fri Jan 22 14:05:43 2021

4 Python 多线程之 GIL

说到 Python 中的多线程,一个绕不过去的话题就是全局锁 GIL(Global interpreter lock)

GIL 限制了同一时刻只能有一个线程运行,无法发挥多核 CPU 的优势。首先需要明确的一点是 GIL 并不是 Python 的特性,它是在实现 Python 解析器(CPython)时所引入的一个概念。就好比 C++ 是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器例如GCC,INTEL C++ ,Visual C++等。Python 也一样,同样一段代码可以通过 CPython,PyPy,Psyco 等不同的 Python 执行环境来执行。像其中的 JPython 就没有GIL。

然而因为 CPython 是大部分环境下默认的 Python 执行环境。所以在很多人的概念里 CPython 就是 Python,也就想当然的把 GIL 归结为 Python 语言的缺陷。所以这里要先明确一点:GIL 并不是 Python 的特性,Python 完全可以不依赖于 GIL

GIL 本质就是一把互斥锁,既然是互斥锁,所有互斥锁的本质都一样,都是将并发运行变成串行,以此来控制同一时间内共享数据只能被一个任务所修改,进而保证数据安全。在一个 Python 的进程内,不仅有主线程或者由该主线程开启的其他线程,还有解释器开启的垃圾回收等解释器级别的线程,总之,所有线程都运行在这一个进程内,所有数据都是共享的,这其中,代码作为一种数据也是被所有线程共享的,多个线程先访问到解释器的代码,即拿到执行权限,然后将 target 的代码交给解释器的代码去执行, 解释器的代码是所有线程共享的,所以垃圾回收线程也可能访问到解释器的代码而去执行,这就导致了一个问题:对于同一个数据 100,可能线程 1 执行 x=100 的同时,而垃圾回收执行的是回收 100 的操作,解决这种问题没有什么高明的方法,就是加锁处理,即 GIL。

因此,有了 GIL 的存在,同一时刻同一进程中只有一个线程被执行,那么有人可能要问了:进程可以利用多核,而 Python 的多线程 却无法利用多核优势,Python 的多线程是不是没用了?

答案当然不是。

首先明确我们线程执行的任务是什么,是做计算(计算密集型)还是做输入输出(I/O 密集型),不同地场景使用不同的方法。 多核 CPU,意味着可以有多个核并行完成计算,所以多核提升的是计算性能,但每个 CPU 一旦遇到 I/O 阻塞,仍然需要等待,所以多核对 I/O 密集型任务没什么太高提升

下面举两个例子来说明:

例子 1 :计算密集型任务

计算密集型任务-多进程

from multiprocessing import Process
import os, time


# 计算密集型任务
def work():
    res = 0
    for i in range(100000000):
        res *= i
    print(time.ctime())


if __name__ == "__main__":
    processes = []
    print("本机为", os.cpu_count(), "核 CPU")  # 本机为4核
    start = time.time()
    for i in range(4):
        p = Process(target=work)  # 多进程
        processes.append(p)
        p.start()
    for p in processes:
        p.join()
    stop = time.time()
    print("计算密集型任务, 多进程耗时 %s" % (stop - start))

运行结果如下

本机为 48 核 CPU
Thu Jan 21 17:05:24 2021
Thu Jan 21 17:05:24 2021
Thu Jan 21 17:05:25 2021
Thu Jan 21 17:05:25 2021
计算密集型任务, 多进程耗时 4.762771368026733

计算密集型任务-多线程

from threading import Thread
import os, time


# 计算密集型任务
def work():
    res = 0
    for i in range(100000000):
        res *= i
    print(time.ctime())


if __name__ == "__main__":
    threads = []
    print("本机为", os.cpu_count(), "核 CPU")  # 本机为4核
    start = time.time()
    for i in range(4):
        t = Thread(target=work)  # 多进程
        threads.append(t)
        t.start()
    for t in threads:
        t.join()
    stop = time.time()
    print("计算密集型任务,多线程耗时 %s" % (stop - start))

运行结果如下

本机为 48 核 CPU
Thu Jan 21 17:07:45 2021
Thu Jan 21 17:07:46 2021
Thu Jan 21 17:07:47 2021
Thu Jan 21 17:07:47 2021
计算密集型任务,多线程耗时 26.130300760269165

例子 2:I/O 密集型任务

I/O 密集型任务-多进程

from multiprocessing import Process
import os, time


# I/0密集型任务
def work():
    time.sleep(2)
    print("===>", file=open("tmp.txt", "w"))

if __name__ == "__main__":
    l = []
    print("本机为", os.cpu_count(), "核 CPU")  # 本机为4核
    start = time.time()
    for i in range(400):
        p = Process(target=work)  # 多进程
        l.append(p)
        p.start()
    for p in l:
        p.join()
    stop = time.time()
    print("I/0密集型任务,多进程耗时 %s" % (stop - start))

运行结果如下所示:

本机为 48 核 CPU
I/0密集型任务,多进程耗时 2.946925401687622

I/O 密集型任务-多线程

from threading import Thread
import os,time

# I/0密集型任务
def work():
    time.sleep(2)
    print("===>", file=open("tmp.txt", "w"))


if __name__ == "__main__":
    threads = []
    print("本机为", os.cpu_count(), "核 CPU")  # 本机为4核
    start = time.time()

    for i in range(400):
        t = Thread(target=work)  # 多线程
        threads.append(t)
        t.start()
    for t in threads:
        t.join()
    stop = time.time()
    print("I/0密集型任务,多线程耗时 %s" % (stop - start))

运行结果如下所示:

本机为 48 核 CPU
I/0密集型任务,多线程耗时 2.180730104446411

结论:在 Python 中,对于计算密集型任务,多进程占优势,对于 I/O 密集型任务,多线程占优势。

当然对运行一个程序来说,随着 CPU 的增多执行效率肯定会有所提高,这是因为一个程序基本上不会是纯计算或者纯 I/O,所以我们只能相对的去看一个程序到底是计算密集型还是 I/O 密集型。

5 Python 多线程之使用方法

Python 提供多线程编程的模块有以下几个:

  • _thread
  • threading
  • Queue
  • multiprocessing

5.1 threading

下面一一介绍

  1. _thread 模块提供了低级别的基本功能来支持多线程功能,提供简单的锁来确保同步,推荐使用 threading 模块。
  2. threading 模块对 _thread 进行了封装,提供了更高级别,功能更强,更易于使用的线程管理的功能,对线程的支持更为完善,绝大多数情况下,只需要使用 threading 这个高级模块就够了

使用 threading 进行多线程操作:

5.1.1 创建 threading.Thread 实例

方法一:是创建 threading.Thread 实例,调用其 start() 方法

import time
import threading

def task_thread(counter):
    print(f'线程名称:{threading.current_thread().name} 参数:{counter} 开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')
    num = counter
    while num:
        time.sleep(3)
        num -= 1
    print(f'线程名称:{threading.current_thread().name} 参数:{counter} 结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')


if __name__ == '__main__':
    print(f'主线程开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

    #初始化3个线程,传递不同的参数
    t1 = threading.Thread(target=task_thread, args=(3,))
    t2 = threading.Thread(target=task_thread, args=(2,))
    t3 = threading.Thread(target=task_thread, args=(1,))
    #开启三个线程
    t1.start()
    t2.start()
    t3.start()
    #等待运行结束
    t1.join()
    t2.join()
    t3.join()

    print(f'主线程结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

运行结果如下所示

主线程开始时间:2021-01-22 13:52:19
线程名称:Thread-1 参数:3 开始时间:2021-01-22 13:52:19
线程名称:Thread-2 参数:2 开始时间:2021-01-22 13:52:19
线程名称:Thread-3 参数:1 开始时间:2021-01-22 13:52:19
线程名称:Thread-3 参数:1 结束时间:2021-01-22 13:52:22
线程名称:Thread-2 参数:2 结束时间:2021-01-22 13:52:25
线程名称:Thread-1 参数:3 结束时间:2021-01-22 13:52:28
主线程结束时间:2021-01-22 13:52:28

5.1.2 继承 Thread 类

方法二:继承 Thread 类,在子类中重写 run() 和 init() 方法

import time
import threading


class MyThread(threading.Thread):
    def __init__(self, counter):
        super().__init__()
        self.counter = counter


    def run(self):

        print(
            f'线程名称:{threading.current_thread().name} 参数:{self.counter} 开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}'
        )
        counter = self.counter
        while counter:
            time.sleep(3)
            counter -= 1
        print(
            f'线程名称:{threading.current_thread().name} 参数:{self.counter} 结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}'
        )


if __name__ == "__main__":
    print(f'主线程开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

    # 初始化3个线程,传递不同的参数
    t1 = MyThread(3)
    t2 = MyThread(2)
    t3 = MyThread(1)
    # 开启三个线程
    t1.start()
    t2.start()
    t3.start()
    # 等待运行结束
    t1.join()
    t2.join()
    t3.join()

    print(f'主线程结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

运行结果如下,与方法一的运行结果一致

主线程开始时间:2021-01-22 13:53:04
线程名称:Thread-1 参数:3 开始时间:2021-01-22 13:53:04
线程名称:Thread-2 参数:2 开始时间:2021-01-22 13:53:04
线程名称:Thread-3 参数:1 开始时间:2021-01-22 13:53:04
线程名称:Thread-3 参数:1 结束时间:2021-01-22 13:53:07
线程名称:Thread-2 参数:2 结束时间:2021-01-22 13:53:10
线程名称:Thread-1 参数:3 结束时间:2021-01-22 13:53:13
主线程结束时间:2021-01-22 13:53:13

如果继承 Thread 类,想调用外部传入函数,代码如下所示

import time
import threading

def task_thread(counter):
    print(f'线程名称:{threading.current_thread().name} 参数:{counter} 开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')
    num = counter
    while num:
        time.sleep(3)
        num -= 1
    print(f'线程名称:{threading.current_thread().name} 参数:{counter} 结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')


class MyThread(threading.Thread):
    def __init__(self, target, args):
        super().__init__()
        self.target = target
        self.args = args

    def run(self):
        self.target(*self.args)


if __name__ == "__main__":
    print(f'主线程开始时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

    # 初始化3个线程,传递不同的参数
    t1 = MyThread(target=task_thread,args=(3,))
    t2 = MyThread(target=task_thread,args=(2,))
    t3 = MyThread(target=task_thread,args=(1,))
    # 开启三个线程
    t1.start()
    t2.start()
    t3.start()
    # 等待运行结束
    t1.join()
    t2.join()
    t3.join()

    print(f'主线程结束时间:{time.strftime("%Y-%m-%d %H:%M:%S")}')

这样就和方法一是相通的,实例化自定义的线程类,运行结果不变。

主线程开始时间:2021-01-22 13:53:46
线程名称:Thread-1 参数:3 开始时间:2021-01-22 13:53:46
线程名称:Thread-2 参数:2 开始时间:2021-01-22 13:53:46
线程名称:Thread-3 参数:1 开始时间:2021-01-22 13:53:46
线程名称:Thread-3 参数:1 结束时间:2021-01-22 13:53:49
线程名称:Thread-2 参数:2 结束时间:2021-01-22 13:53:52
线程名称:Thread-1 参数:3 结束时间:2021-01-22 13:53:55
主线程结束时间:2021-01-22 13:53:55

5.1.3 线程同步之 Lock (互斥锁)

如果多个线程共同对某个数据修改,则可能出现不可预料的结果,这个时候就需需要使用互斥锁来进步同步。如下所示的代码,在三个线程对共同变量 num 进行 100 万次加减操作之后,其 num 的结果不为 0,

import time, threading

num = 0

def task_thread(n):
    global num
    for i in range(1000000):
        num = num + n
        num = num - n

t1 = threading.Thread(target=task_thread, args=(6,))
t2 = threading.Thread(target=task_thread, args=(17,))
t3 = threading.Thread(target=task_thread, args=(11,))
t1.start()
t2.start()
t3.start()
t1.join()
t2.join()
t3.join()
print(num)

运行结果如下

-57

之所以会出现不为 0 的情况,因为修改 num 需要多条语句,当一个线程正在执行 num+n 时,另一个线程正在执行 num-m ,从而导致之前的线程执行 num-n 时 num 的值已不是之前的值,从而导致最终的结果不为 0 。

为了保证数据的正确性,需要使用互斥锁对多个线程进行同步,限制当一个线程正在访问数据时,其他只能等待,直到前一线程释放锁。使用 threading.Thread 对象的 LockRlock 可以实现简单的线程同步,这两个对象都有 acquire 方法和 release 方法,对于那些需要每次只允许一个线程操作的数据,可以将其操作放到 acquire 和 release 方法之间。如下:

import time, threading

num = 0
lock = threading.Lock()
def task_thread(n):
    global num
    # 获取锁,用于线程同步
    lock.acquire()
    for i in range(1000000):
        num = num + n
        num = num - n
    #释放锁,开启下一个线程
    lock.release()

t1 = threading.Thread(target=task_thread, args=(6,))
t2 = threading.Thread(target=task_thread, args=(17,))
t3 = threading.Thread(target=task_thread, args=(11,))
t1.start(); t2.start(); t3.start()
t1.join(); t2.join(); t3.join()
print(num)

运行结果

0

5.1.4 线程同步之 Semaphore(信号量)

互斥锁同时只允许一个线程访问共享数据,而信号量是同时允许一定数量的线程访问共享数据,比如银行柜台有 5 个窗口,则允许同时有 5 个人办理业务(semaphore = threading.BoundedSemaphore(5)),后面的人只能等待前面有了办完业务后才可以进入柜台办理。

示例代码如下

import threading
import time

# 同时只有5个人办理业务
semaphore = threading.BoundedSemaphore(5)
# 模拟银行业务办理
def yewubanli(name):
    semaphore.acquire()
    time.sleep(3)
    print(f"{time.strftime('%Y-%m-%d %H:%M:%S')} {name} 正在办理业务")
    semaphore.release()


thread_list = []
for i in range(12):
    t = threading.Thread(target=yewubanli, args=(i,))
    thread_list.append(t)

for thread in thread_list:
    thread.start()

for thread in thread_list:
    thread.join()

# while threading.active_count() != 1:
#    time.sleep(1)

运行结果如下所示

2021-01-22 13:54:59 0 正在办理业务
2021-01-22 13:54:59 1 正在办理业务
2021-01-22 13:54:59 2 正在办理业务
2021-01-22 13:54:59 4 正在办理业务
2021-01-22 13:54:59 3 正在办理业务
2021-01-22 13:55:02 5 正在办理业务
2021-01-22 13:55:02 7 正在办理业务
2021-01-22 13:55:02 6 正在办理业务
2021-01-22 13:55:02 8 正在办理业务
2021-01-22 13:55:02 9 正在办理业务
2021-01-22 13:55:05 10 正在办理业务
2021-01-22 13:55:05 11 正在办理业务

可以看出,同一时刻只有 5 个人正在办理业务,即同一时刻只有5个线程获得资源运行。

5.1.5 线程同步之 Condition

条件对象能让一个线程 A 停下来,等待其他线程 B ,线程 B 满足了某个条件后通知(notify)线程 A 继续运行。线程首先获取一个条件变量锁,如果条件不足,则该线程等待(wait)并释放条件变量锁,如果满足就执行线程,也可以通知其他状态为 wait 的线程。其他处于 wait 状态的线程接到通知后会重新判断条件。

下面为一个有趣的例子

import threading

class Boy(threading.Thread):
    def __init__(self, cond, name):
        super(Boy, self).__init__()
        self.cond = cond
        self.name = name

    def run(self):
        self.cond.acquire()
        print(self.name + ": 嫁给我吧!?")
        self.cond.notify()  # 唤醒一个挂起的线程,让小小明表态
        self.cond.wait()  # 释放内部所占用的琐,同时线程被挂起,直至接收到通知被唤醒或超时,等待小小明回答        
        print(self.name + ": 我单下跪,送上戒指!")
        self.cond.notify()	# 通知小小明表态
        self.cond.wait()	# 等待小小明的回答
        print(self.name + ": 明太太,你的选择太明智了。")
        self.cond.release()


class Girl(threading.Thread):
    def __init__(self, cond, name):
        super(Girl, self).__init__()
        self.cond = cond
        self.name = name

    def run(self):
        self.cond.acquire()
        self.cond.wait()  # 等待小小萌求婚
        print(self.name + ": 没有情调,不够浪漫,不答应")
        self.cond.notify() # 通知小小萌
        self.cond.wait()   # 等待小小萌的回答
        print(self.name + ": 好吧,答应你了")
        self.cond.notify()
        self.cond.release()

cond = threading.Condition()
boy = Boy(cond, "小小萌")
girl = Girl(cond, "小小明")
girl.start()
boy.start()

运行结果如下:

小小萌: 嫁给我吧!?
小小明: 没有情调,不够浪漫,不答应
小小萌: 我单下跪,送上戒指!
小小明: 好吧,答应你了
小小萌: 明太太,你的选择太明智了。

5.1.6 线程同步之 Event

事件用于线程间通信。一个线程发出一个信号,其他一个或多个线程等待,调用 event 对象的 wait 方法,线程则会阻塞等待,直到别的线程 set 之后,才会被唤醒。上面求婚哥的例子使用 Event 代码如下:

通过threading.Event()可以创建一个事件管理标志,该标志(event)默认为False,event对象主要有四种方法可以调用:

  • event.wait(timeout=None):调用该方法的线程会被阻塞,如果设置了 timeout 参数,超时后,线程会停止阻塞继续执行;
  • event.set():将 event 的标志设置为True,调用 wait 方法的所有线程将被唤醒;
  • event.clear():将 event 的标志设置为 False,调用 wait 方法的所有线程将被阻塞;
  • event.isSet():判断 event 的标志是否为True。
import threading, time


class Boy(threading.Thread):
    def __init__(self, cond, name):
        super(Boy, self).__init__()
        self.cond = cond
        self.name = name

    def run(self):
        print(self.name + ": 嫁给我吧!?")
        self.cond.set()  # 唤醒一个挂起的线程,让小明明表态
        time.sleep(0.5)
        self.cond.wait()
        
        print(self.name + ": 我单下跪,送上戒指!")
        self.cond.set()
        time.sleep(0.5)
        self.cond.wait()
        
        self.cond.clear()
        print(self.name + ": 明太太,你的选择太明治了。")


class Girl(threading.Thread):
    def __init__(self, cond, name):
        super(Girl, self).__init__()
        self.cond = cond
        self.name = name

    def run(self):
        self.cond.wait()  # 等待小萌萌求婚
        self.cond.clear()
        
        print(self.name + ": 没有情调,不够浪漫,不答应")
        self.cond.set()
        time.sleep(0.5)
        self.cond.wait()
        print(self.name + ": 好吧,答应你了")
        self.cond.set()


cond = threading.Event()
boy = Boy(cond, "小萌萌")
girl = Girl(cond, "小明明")
boy.start()
girl.start()

运行结果如下:

小萌萌: 嫁给我吧!?
小明明: 没有情调,不够浪漫,不答应
小萌萌: 我单下跪,送上戒指!
小明明: 好吧,答应你了
小萌萌: 明太太,你的选择太明治了。

5.2 线程优先级队列(queue)

Python 的 queue 模块中提供了同步的、线程安全的队列类,包括先进先出队列 Queue后进先出队列 LifoQueue,和优先级队列 PriorityQueue。这些队列都实现了锁原语,可以直接使用来实现线程间的同步。

举一个简单的例子,假如有一小冰箱用来存放冷饮,假如该小冰箱只能放 5 个冷饮,A 不停地往冰箱放冷饮,B 不停地从冰箱取冷饮,A 和 B 的放取速度可能不一致,如何保持他们的同步呢? 这里队列就派上了用场。

先看代码

import threading,time

import queue


#先进先出
q = queue.Queue(maxsize=5)
#q = queue.LifoQueue(maxsize=3)
#q = queue.PriorityQueue(maxsize=3)

def ProducerA():
    count = 1
    while True:
        q.put(f"冷饮 {count}")
        print(f"A 放入:[冷饮 {count}]")
        count +=1
        time.sleep(1)

def  ConsumerB():
    while True:
        print(f"B 取出 [{q.get()}]")
        time.sleep(5)

p = threading.Thread(target=ProducerA)
c = threading.Thread(target=ConsumerB)
c.start()
p.start()

运行结果如下:

A 放入:[冷饮 1]
B 取出 [冷饮 1]
A 放入:[冷饮 2]
A 放入:[冷饮 3]
A 放入:[冷饮 4]
A 放入:[冷饮 5]
B 取出 [冷饮 2]
A 放入:[冷饮 6]
A 放入:[冷饮 7]
...

以上代码是实现生产者和消费者模型的一个最简单的例子。在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

生产者消费者模式是通过一个容器(队列)来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力

5.3 multiprocessing

Python中线程与进程使用的同一模块 multiprocessing。使用方法也基本相同,唯一不同的是,from multiprocessing import Pool 这样导入的 Pool 表示的是进程池from multiprocessing.dummy import Pool 这样导入的 Pool 表示的是线程池。这样就可以实现线程里面的并发了。

线程池实例:

from multiprocessing.dummy import Pool as ThreadPool
import time


def fun(n):
    time.sleep(2)


start = time.time()
for i in range(5):
    fun(i)
print("单线程顺序执行耗时:", time.time() - start)

start2 = time.time()

# 开8个 worker,没有参数时默认是 cpu 的核心数
pool = ThreadPool(processes=2)

# 在线程中执行 urllib2.urlopen(url) 并返回执行结果
results2 = pool.map(fun, range(5))
pool.close()
pool.join()
print("线程池(5)并发执行耗时:", time.time() - start2)

上述代码模拟一个耗时 2 秒的任务,比较其顺序执行 5 次和线程池(并发数为 5 )执行的耗时,运行结果如下所示

单线程顺序执行耗时: 10.008222103118896
线程池(5)并发执行耗时: 6.146117925643921

6 总结

Python 多线程适合用在 I/O 密集型任务中。I/O 密集型任务较少时间用在 CPU 计算上,较多时间用在 I/O 上,如文件读写,web 请求,数据库请求 等;而对于计算密集型任务,应该使用多进程

queue 和 multiprocessing 还有待深入了解

猜你喜欢

转载自blog.csdn.net/bryant_meng/article/details/112966393