【python进阶 笔记】多任务-进程 (含文件夹复制实例)

【python高级基础 笔记】多任务-进程

目录

1. 进程的创建

1.1. 进程实现多任务 小例子:

1.2 获取进程pid、传递参数 小例子

2.进程、线程对比

3. 进程间通信-Queue

3.1 Queue的使用

3.2. Queue 小实例

4.进程池Pool

4.1. 进程池 小实例

4.2. 进程池的Queue

5. 案例:多进程文件夹copy


1. 进程的创建

multiprocessing模块就是跨平台版本的多进程模块,提供了一个Process类来代表一个进程对象,这个对象可以理解为是一个独立的进程,可以执行另外的事情。

 

Process([group [, target [, name [, args [, kwargs]]]]])

  • target:如果传递了函数的引用,可以任务这个子进程就执行这里的代码
  • args:给target指定的函数传递的参数,以元组的方式传递
  • kwargs:给target指定的函数传递命名参数
  • name:给进程设定一个名字,可以不设定
  • group:指定进程组,大多数情况下用不到

Process创建的实例对象的常用方法

  • start():启动子进程实例(创建子进程)
  • is_alive():判断进程子进程是否还在活着
  • join([timeout]):是否等待子进程执行结束,或等待多少秒
  • terminate():不管任务是否完成,立即终止子进程

Process创建的实例对象的常用属性

  • name:当前进程的别名,默认为Process-N,N为从1开始递增的整数
  • pid:当前进程的pid(进程号)

 

1.1. 进程实现多任务 小例子:

创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动

import time
import multiprocessing


def test1():
    while True:
        print("1--------")
        time.sleep(1)


def test2():
    while True:
        print("2--------")
        time.sleep(1)


def main():
    p1 = multiprocessing.Process(target=test1)
    p2 = multiprocessing.Process(target=test2)
    p1.start()
    p2.start()


if __name__ == "__main__":
    main()

 

1.2 获取进程pid、传递参数 小例子

注:os.getpid()获取当前进程的进程号,  os.getppid()获取当前进程的父进程的进程号。

import multiprocessing
import os
import time


def test(a, b, c, *args, **kwargs):
    print(a)
    print(b)
    print(c)
    print(args)
    print(kwargs)


def main():
    print("----in 主进程 pid=%d---父进程pid=%d----" % (os.getpid(), os.getppid()))
    p = multiprocessing.Process(target=test, args=(11, 22, 33, 44, 55, 66, 77, 88), kwargs={"mm":11})
    p.start()


if __name__ == "__main__":
    main()

输出结果:

----in 主进程 pid=81311---父进程pid=54485----
11
22
33
(44, 55, 66, 77, 88)
{'mm': 11}

 

2.进程、线程对比

定义:

  • 进程是系统进行资源分配和调度的一个独立单位.
  • 线程是进程的一个实体,是CPU调度和分派的基本单位,它是比进程更小的能独立运行的基本单位.线程自己基本上不拥有系统资源,只拥有一点在运行中必不可少的资源(如程序计数器,一组寄存器和栈),但是它可与同属一个进程的其他的线程共享进程所拥有的全部资源.

区别:

  • 一个程序至少有一个进程,一个进程至少有一个线程.
  • 线程的划分尺度小于进程(资源比进程少),使得多线程程序的并发性高。
  • 进程在执行过程中拥有独立的内存单元,而多个线程共享内存,从而极大地提高了程序的运行效率
  • 线程不能够独立执行,必须依存在进程中
  • 线程执行开销小,但不利于资源的管理和保护;而进程正相反。

3. 进程间通信-Queue

3.1 Queue的使用

multiprocessing模块的Queue实现多进程之间的数据传递,Queue本身是一个消息列队程序。

初始化Queue()对象时(如:q=Queue()),若括号中没有指定最大可接收的消息数量,或数量为负值,那么就代表可接受的消息数量没有上限(直到内存的尽头);

    1. Queue.qsize():返回当前队列包含的消息数量;

    2. Queue.empty():如果队列为空,返回True,反之False ;

    3. Queue.full():如果队列满了,返回True,反之False;

    4. Queue.get([block[, timeout]]):获取队列中的一条消息,然后将其从列队中移除,block默认值为True;

1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果为空,此时程序将被阻塞(停在读取状态),直到从消息列队读到消息为止,如果设置了timeout,则会等待timeout秒,若还没读取到任何消息,则抛出"Queue.Empty"异常;

2)如果block值为False,消息列队如果为空,则会立刻抛出"Queue.Empty"异常;

     5. Queue.get_nowait():相当Queue.get(False);

     6. Queue.put(item,[block[, timeout]]):将item消息写入队列,block默认值为True;

1)如果block使用默认值,且没有设置timeout(单位秒),消息列队如果已经没有空间可写入,此时程序将被阻塞(停在写入状态),直到从消息列队腾出空间为止,如果设置了timeout,则会等待timeout秒,若还没空间,则抛出"Queue.Full"异常;

2)如果block值为False,消息列队如果没有空间可写入,则会立刻抛出"Queue.Full"异常;

    7. Queue.put_nowait(item):相当Queue.put(item, False);

3.2. Queue 小实例

功能:在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:

from multiprocessing import Process, Queue
import os, time, random

# 写数据:
def write(q):
    for value in ['A', 'B', 'C']:
        print('Put %s to queue...' % value)
        q.put(value)
        time.sleep(random.random())


# 读数据:
def read(q):
    while True:
        if not q.empty():
            value = q.get(True)
            print('Get %s from queue.' % value)
            time.sleep(random.random())
        else:
            break


if __name__=='__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))
    # 启动子进程pw,写入:
    pw.start()    
    # 等待pw结束:
    pw.join()
    # 启动子进程pr,读取:
    pr.start()
    pr.join()

    print('')
    print('所有数据都写入并且读完')

 

4.进程池Pool

  • 当要创建的子进程数量多时,可用multiprocessing模块提供的Pool方法创建进程池。
  • 初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务

multiprocessing.Pool的常用方法:

  • apply_async(func[, args[, kwds]]) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;
  • close():关闭Pool,使其不再接受新的任务;
  • terminate():不管任务是否完成,立即终止;
  • join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;

注:用进程池时,主进程不会等到子进程结束才结束主进程。故在主进程中要适当的调用join()方法,等待pool中所有子进程执行完毕。

4.1. 进程池 小实例

定义一个最大进程数为3的进程池,输出每个进程号,每个进程的执行时间。

# -*- coding:utf-8 -*-
from multiprocessing import Pool
import os, time, random


def worker(msg):
    t_start = time.time()
    print("%s开始执行,进程号为%d" % (msg,os.getpid()))
    # random.random()随机生成0~1之间的浮点数
    time.sleep(random.random()*2) 
    t_stop = time.time()
    print(msg,"执行完毕,耗时%0.2f" % (t_stop-t_start))


po = Pool(3)  # 定义一个进程池,最大进程数3
for i in range(0,10):
    # Pool().apply_async(要调用的目标,(传递给目标的参数元祖,))
    # 每次循环将会用空闲出来的子进程去调用目标
    po.apply_async(worker,(i,))

print("----start----")
po.close()  # 关闭进程池,关闭后po不再接收新的请求
po.join()  # 等待po中所有子进程(进程池中)执行完成,必须放在close语句之后
print("-----end-----")

执行结果如下:注意到进程号只有那三个,pool中一个进程结束后,空闲的子进程再去调用新的目标。

----start----
0开始执行,进程号为82458
1开始执行,进程号为82459
2开始执行,进程号为82460
1 执行完毕,耗时0.19
3开始执行,进程号为82459
0 执行完毕,耗时0.75
4开始执行,进程号为82458
2 执行完毕,耗时0.77
5开始执行,进程号为82460
3 执行完毕,耗时1.64
6开始执行,进程号为82459
4 执行完毕,耗时1.37
7开始执行,进程号为82458
5 执行完毕,耗时1.38
8开始执行,进程号为82460
6 执行完毕,耗时1.32
9开始执行,进程号为82459
8 执行完毕,耗时1.00
7 执行完毕,耗时1.15
9 执行完毕,耗时1.34
-----end-----

4.2. 进程池的Queue

使用Pool创建进程,需要使用multiprocessing.Manager()中的Queue()而不是multiprocessing.Queue():

from multiprocessing import Manager

进程池 进程通信 小实例:

# -*- coding:utf-8 -*-

# import Manager
from multiprocessing import Manager,Pool
import os,time,random

def reader(q):
    print("reader启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in range(q.qsize()):
        print("reader从Queue获取到消息:%s" % q.get(True))

def writer(q):
    print("writer启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in "hello!":
        q.put(i)

if __name__=="__main__":
    print("(%s) start" % os.getpid())  # os.getpid()获取进程号
    q = Manager().Queue()  # 使用Manager中的Queue
    po = Pool(3)
    po.apply_async(writer, (q,))

    time.sleep(1)  # 先让上面的任务向Queue存入数据,然后再让下面的任务开始从中取数据

    po.apply_async(reader, (q,))
    po.close()  # 关闭进程池,关闭后po不再接收新的请求
    po.join()  # 等待po中所有子进程执行完成,必须放在close语句之后
    print("(%s) End" % os.getpid())

执行结果:

(82505) start
writer启动(82512),父进程为(82505)
reader启动(82513),父进程为(82505)
reader从Queue获取到消息:h
reader从Queue获取到消息:e
reader从Queue获取到消息:l
reader从Queue获取到消息:l
reader从Queue获取到消息:o
reader从Queue获取到消息:!
(82505) End

5. 案例:多进程文件夹copy

V1:复制指定文件夹的文件到另一个文件夹

如输入文件夹名 test ,则该文件夹的所有文件会复制到 test[复件]。

import os
import multiprocessing


def copy_file(file_name, old_folder_name, new_folder_name):
    """文件复制函数"""
    # print("----from %s copy to %s : %s . " % (old_folder_name, new_folder_name, file_name))
    old_f = open(old_folder_name + "/" + file_name, "rb")
    content = old_f.read()
    old_f.close()

    new_f = open(new_folder_name + "/" + file_name, "wb")
    new_f.write(content)
    new_f.close()


def main():
    # 1 获取用户要copy的文件夹的名字
    old_folder_name = input("please input folder name for copy:")

    # 2. 创建一个新的文件夹
    try:
        new_folder_name = old_folder_name + "[复件]"
        os.mkdir(new_folder_name)  # 文件夹已存在会产生异常
    except:
        pass

    # 3. 获取文件夹的所有待copy的文件名  listdir()
    file_names = os.listdir(old_folder_name)
    # print(file_names)

    # 4. 创建进程池
    pool = multiprocessing.Pool(5)

    # 5. 向进程池中添加 copy文件的任务函数
    for file_name in file_names:
        pool.apply_async(copy_file, args=(file_name, old_folder_name, new_folder_name))

    pool.close()
    pool.join()


if __name__ == "__main__":
    main()

V2 : 主进程显示进度(利用进程间通信:每完成一个文件的复制,向消息队列添加一条消息):

import os
import multiprocessing


def copy_file(queue, file_name, old_folder_name, new_folder_name):
    """文件复制函数"""
    # print("----from %s copy to %s : %s . " % (old_folder_name, new_folder_name, file_name))
    old_f = open(old_folder_name + "/" + file_name, "rb")
    content = old_f.read()
    old_f.close()

    new_f = open(new_folder_name + "/" + file_name, "wb")
    new_f.write(content)
    new_f.close()

    # 若拷贝完了当前文件,则向队列中写入一个消息
    queue.put(file_name)


def main():
    # 1 获取用户要copy的文件夹的名字
    old_folder_name = input("please input folder name for copy:")

    # 2. 创建一个新的文件夹
    try:
        new_folder_name = old_folder_name + "[复件]"
        os.mkdir(new_folder_name)  # 文件夹已存在会产生异常
    except:
        pass

    # 3. 获取文件夹的所有待copy的文件名  listdir()
    file_names = os.listdir(old_folder_name)
    # print(file_names)

    # 4. 创建进程池
    pool = multiprocessing.Pool(5)

    # 5. 创建一个队列
    queue = multiprocessing.Manager().Queue()

    # 6. 向进程池中添加 copy文件的任务函数
    for file_name in file_names:
        pool.apply_async(copy_file, args=(queue, file_name, old_folder_name, new_folder_name))

    pool.close()
    # pool.join()
    all_file_num = len(file_names)  # 获取所有的文件个数(len返回列表元素个数)
    copy_ok_num = 0

    while True:
        file_name = queue.get()  # 取队列消息
        # print("已经完成copy:%s" % file_name)
        copy_ok_num += 1
        print("\r拷贝的进度为:%.2f %%" % (copy_ok_num*100/all_file_num), end="")
        # \r 默认将指针返回到最开始后输出(在原位置再次输出) 

        if copy_ok_num >= all_file_num:
            break

    print()


if __name__ == "__main__":
    main()

注:\r 默认将指针返回到最开始后输出(在原位置再次输出)

发布了50 篇原创文章 · 获赞 10 · 访问量 6618

猜你喜欢

转载自blog.csdn.net/qq_23996069/article/details/104055977
今日推荐