day39---僵尸进程、孤儿进程、守护进程

进程对象及其其他方法

  • windows上常看进程
# tasklist

查看具体的进程PID

# tasklist | findstr 364

  • linux下查看进程
# ps aux
# ps ajx
# ps -AF

查看具体的进程IPD

# ps aux|grep 1067 

查看当前的进程号以及父进程号

from multiprocessing import Process, current_process
import os
import time


def beast(name):
    print('天王盖地虎'.center(30, '='))
    print(f'<子>当前的进程号:{current_process().pid}')  # 查看当前进程的进程号
    time.sleep(3)
    print(f'{name}一米五'.center(30, '^'))
    print(f'<子>当前进程的父进程:{os.getppid()}')  # 查看当前进程的父进程号


if __name__ == '__main__':
    p = Process(target=beast, args=('egon',))
    p.start()
    p.join()
    print(f'<主>当前进程的进程号:{os.getpid()}')  # 查看当前进程的进程号
    print(f'<主>当前进程的父进程:{os.getppid()}')

其他方法

  • 杀死当前进程
"""
p.terminate()
"""

if __name__ == '__main__':
    p = Process(target=beast, args=('egon',))
    p.start()
    p.terminate()
    p.join()
    print(f'<主>当前进程的进程号:{os.getpid()}')  # 查看当前进程的进程号
    print(f'<主>当前进程的父进程:{os.getppid()}')

显示结果:

"""
<主>当前进程的进程号:130676
<主>当前进程的父进程:130662
"""
  • 判断进程是否存活
"""
p.is_alive()
"""
if __name__ == '__main__':
    p = Process(target=beast, args=('egon',))
    p.start()
    p.terminate()
    if p.is_alive():
        print(f'<主>当前进程的进程号:{os.getpid()}')  # 查看当前进程的进程号
        print(f'<主>当前进程的父进程:{os.getppid()}')
    else:
        print(False)

按照程序逻辑来判断:杀死子进程后,p.is_alive()的值为False,输出到屏幕的应该是"False",但是事实是这样吗?

"""
答案是否定的。因为p.terminate()会向系统调用杀死进程请求,其执行速度比代码的执行速度慢。因此,我们看到输出屏幕的还是: 
<主>当前进程的进程号:568
<主>当前进程的父进程:553
"""

僵尸进程与孤儿进程

  • 什么是僵尸进程
"""
定义:僵尸进程:一个进程使用fork创建子进程,如果子进程退出,而父进程并没有调用wait或waitpid获取子进程的状态信息,那么子进程的进程描述符仍然保存在系统中。这种进程称之为僵尸进程。
"""

僵尸进程是有害的

扫描二维码关注公众号,回复: 11079671 查看本文章
  • 孤儿进程
"""
定义:孤儿进程:一个父进程退出,而它的一个或多个子进程还在运行,那么那些子进程将成为孤儿进程。孤儿进程将被init进程(进程号为1)所收养,并由init进程对它们完成状态收集工作。
"""

孤儿进程是无害的

僵尸进程的解决方案:

"""
1.等待父进程正常结束后会调用wait/waitpid去回收僵尸进程
2.但如果父进程是一个死循环,永远不会结束,那么该僵尸进程就会一直存在,僵尸进程过多,就是有害的:
    (1)杀死父进程
    (2)对开启的子进程应该记得使用join,join会回收僵尸进程
3.使用signal处理僵尸进程https://blog.csdn.net/u010571844/article/details/50419798
"""

守护进程

主进程创建守护进程

"""
1.守护进程会在主进程代码结束后就终止
2.守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children
"""

注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止

假设有宫女[jason]和总管[ egon],他们爱的死去活来,[egon]要守护[jason],

[egon]给一滴心头血[jason](如果,jason挂了,egon都没有出场机会)

from multiprocessing import Process
import time
import random


class Beast(Process):
    def __init__(self, name):
        super().__init__()
        self.name = name

    def run(self):
        print(f'总管[{self.name}]还活着')
        time.sleep(random.randrange(1, 3))
        print(f'总管[{self.name}]殉情自杀')


if __name__ == '__main__':
    name = 'jason'
    p = Beast('egon_dsb')
    p.daemon = True
    p.start()
    print(f'宫女[{name}]驾鹤西去')

于是乎,出现了以下一幕:

"""
宫女[jason]驾鹤西去
"""

进程同步锁(互斥锁)

进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的;而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理

"""
并发运行,效率高,但竞争同一打印终端,带来了打印错乱
加锁:由并发变成了串行,牺牲了运行效率,保证了数据安全
"""

模拟抢票的示例

from multiprocessing import Process, Lock
import os
import json
import time
import random


class BuyTicket(Process):
    def __init__(self, name,mutex):
        super().__init__()
        self.name = name
        self.mutex = mutex

    def search(self):
        with open('ticket.json', mode='r', encoding='utf-8') as fr:
            ticket_dic = json.load(fr)
        print(f"用户[{self.name}]查询到余票:{ticket_dic.get('ticket_num')}")

    def buy(self):
        with open('ticket.json', mode='r', encoding='utf-8') as fr:
            ticket_dic = json.load(fr)     # 先查票
        time.sleep(random.randrange(1,3)) # 模拟网络延迟
        if ticket_dic.get('ticket_num'):
            ticket_dic['ticket_num'] -= 1
            with open('ticket.json',mode='w',encoding='utf-8') as fw:
                json.dump(ticket_dic,fw)
            print(f'用户[{self.name}]购票成功!')
        else:
            print(f'用户[{self.name}]购票失败!')

    def run(self):
        print(f'当前进程号:{os.getpid()}')
        self.search()
        self.mutex.acquire()
        self.buy()
        self.mutex.release()

if __name__ == '__main__':
    mutex = Lock()
    p1 = BuyTicket('egon_dsb',mutex)
    p2 = BuyTicket('alex_dsb',mutex)
    p3 = BuyTicket('jason_dsb',mutex)
    p4 = BuyTicket('tank_dsb',mutex)
    p1.start()
    p2.start()
    p3.start()
    p4.start()

运行结果:

"""
当前进程号:8120
用户[egon_dsb]查询到余票:1
当前进程号:8123
用户[tank_dsb]查询到余票:1
当前进程号:8121
用户[alex_dsb]查询到余票:1
当前进程号:8122
用户[jason_dsb]查询到余票:1
用户[egon_dsb]购票成功!
用户[tank_dsb]购票失败!
用户[alex_dsb]购票失败!
用户[jason_dsb]购票失败!
"""

扩展:

"""
行锁 表锁
注意:
1.锁不要轻易的使用,容易造成死锁现象(我们写代码一般不会用到,都是内部封装好的)
2.锁只在处理数据的部分加来保证数据安全(只在争抢数据的环节加锁处理即可) 
"""

因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。

"""
1 队列和管道都是将数据存放于内存中
2 队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。
"""

进程之间的通信

"""
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
"""

管道:

"""
 stdin,stdout,stderr 
"""
import subprocess

obj1 = subprocess.Popen('ps -AF',
                        shell=True,
                        stdout=subprocess.PIPE,
                        stderr=subprocess.PIPE)
obj2 = subprocess.Popen('grep python',
                        shell=True,
                        stdin=obj1.stdout,
                        stdout=subprocess.PIPE,
                        stderr=subprocess.PIPE)

队列Queue模块

"""
队列:先进先出
队列就是管道+锁
"""

创建队列的类

"""
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
"""

maxsize是队列中允许最大项数,省略则无大小限制。

主要方法:

"""
1 q.put方法用以插入数据到队列中,put方法还有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果blocked为False,但该Queue已满,会立即抛出Queue.Full异常。
2 q.get方法可以从队列读取并且删除一个元素。同样,get方法有两个可选参数:blocked和timeout。如果blocked为True(默认值),并且timeout为正值,那么在等待时间内没有取到任何元素,会抛出Queue.Empty异常。如果blocked为False,有两种情况存在,如果Queue有一个值可用,则立即返回该值,否则,如果队列为空,则立即抛出Queue.Empty异常.
 
3 q.get_nowait():同q.get(False)
4 q.put_nowait():同q.put(False)
 
5 q.empty():调用此方法时q为空则返回True,该结果不可靠,比如在返回True的过程中,如果队列中又加入了项目。
6 q.full():调用此方法时q已满则返回True,该结果不可靠,比如在返回True的过程中,如果队列中的项目被取走。
"""

其他方法(了解):

"""
1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞
2 q.close():关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
3 q.join_thread():连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为
"""

示例:

from multiprocessing import Queue

# 创建一个队列
q = Queue(5)  # 括号内可以传数字 标示生成的队列最大可以同时存放的数据量

# 往队列中存数据
q.put(111)
q.put(222)
q.put(333)
# print(q.full())  # 判断当前队列是否满了
# print(q.empty())  # 判断当前队列是否空了
q.put(444)
q.put(555)
# print(q.full())  # 判断当前队列是否满了

# q.put(666)  # 当队列数据放满了之后 如果还有数据要放程序会阻塞 直到有位置让出来 不会报错

"""
存取数据 存是为了更好的取
千方百计的存、简单快捷的取

同在一个屋檐下
差距为何那么大
"""

# 去队列中取数据
v1 = q.get()
v2 = q.get()
v3 = q.get()
v4 = q.get()
v5 = q.get()
# print(q.empty())
# V6 = q.get_nowait()  # 没有数据直接报错queue.Empty
# v6 = q.get(timeout=3)  # 没有数据之后原地等待三秒之后再报错  queue.Empty
try:
    v6 = q.get(timeout=3)
    print(v6)
except Exception as e:
    print('一滴都没有了!')

# # v6 = q.get()  # 队列中如果已经没有数据的话 get方法会原地阻塞
# print(v1, v2, v3, v4, v5, v6)

"""
q.full()
q.empty()
q.get_nowait()
在多进程的情况下是不精确
"""

IPC机制

from multiprocessing import Queue, Process

"""
研究思路
    1.主进程跟子进程借助于队列通信
    2.子进程跟子进程借助于队列通信
"""
def producer(q):
    q.put('我是23号技师 很高兴为您服务')


def consumer(q):
    print(q.get())


if __name__ == '__main__':
    q = Queue()
    p = Process(target=producer,args=(q,))
    p1 = Process(target=consumer,args=(q,))
    p.start()
    p1.start()

生产消费者模型

生产消费者模型

#生产者消费者模型总结

    #程序中有两类角色
        一类负责生产数据(生产者)
        一类负责处理数据(消费者)

    #引入生产者消费者模型为了解决的问题是:
        平衡生产者与消费者之间的工作能力,从而提高程序整体处理数据的速度

    #如何实现:
        生产者<-->队列<——>消费者
    #生产者消费者模型实现类程序的解耦和

示例:

from multiprocessing import Process, Queue
import random
import time
import os


def producer(name, q):
    time.sleep(random.randrange(1, 3))
    print(f'{os.getpid()},技师[{name}]上线!')
    q.put(name)


def customer(name, q):
    print('欢迎来到天上人间桑拿中心'.center(30, '='))
    while True:
        res = q.get()
        if res is None: break
        time.sleep(random.randrange(1, 3))
        print(f'{name}叫了[{res}]进行服务!')


if __name__ == '__main__':
    q = Queue()
    # 两个生产者
    p1 = Process(target=producer, args=('egon_dsb', q))
    p2 = Process(target=producer, args=('tank', q))
    # 一个消费者
    c1 = Process(target=customer, args=('jason', q))
    p1.start()
    p2.start()
    c1.start()
    p1.join()
    p2.join()
    q.put(None)

JoinableQueue队列模块

#JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

   #参数介绍:
    maxsize是队列中允许最大项数,省略则无大小限制。    
  #方法介绍:
    JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
    q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
    q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止

示例:

from multiprocessing import Process, JoinableQueue
import random
import time
import os


def producer(name, q):
    time.sleep(random.randrange(1, 3))
    print(f'{os.getpid()},技师[{name}]上线!')
    q.put(name)
    q.join()


def customer(name, q):
    print('欢迎来到天上人间桑拿中心'.center(30, '='))
    while True:
        res = q.get()
        time.sleep(random.randrange(1, 3))
        print(f'{name}叫了[{res}]进行服务!')
        q.task_done()  #向q.join()发送一次信号,证明一个数据已经被取走了


if __name__ == '__main__':
    q = JoinableQueue()
    # 两个生产者
    p1 = Process(target=producer, args=('egon_dsb', q))
    p2 = Process(target=producer, args=('tank', q))
    # 一个消费者
    c1 = Process(target=customer, args=('jason', q))
    p1.start()
    p2.start()
    c1.daemon = True
    c1.start()
    p1.join()
    p2.join()
    q.join()
    
    """
    #主进程等--->p1,p2等---->c1
    #p1,p2结束了,证明c1肯定全都收完了p1,p2发到队列的数据
    #因而c1也没有存在的价值了,应该随着主进程的结束而结束,所以设置成守护进程
    """

猜你喜欢

转载自www.cnblogs.com/surpass123/p/12762690.html