Python基础 线程 2

1  同步异步概念

同步的意思就是协同步调,按预定的先后次序执行。例如你先说完然后我再说。

大家不要将同步理解成一起动作,同步是指协同、协助、互相配合。

例如线程同步,可以理解为线程A和B一块配合工作,A执行到一定程度时要依靠B的某个结果,于是停下来示意B执行,B执行完将结果给A,然后A继续执行。

A强依赖B(对方),A必须等到B的回复,才能做出下一步响应。即A的操作(行程)是顺序执行的,中间少了哪一步都不可以,或者说中间哪一步出错都不可以。

举个例子:

你去外地上学(人生地不熟),突然生活费不够了;此时你决定打电话回家,通知家里转生活费过来,可是当你拨出电话时,对方一直处于待接听状态(即:打不通,联系不上),为了拿到生活费,你就不停的oncall、等待,最终可能不能及时要到生活费,导致你今天要做的事都没有完成,而白白花掉了时间。

异步:

异步则相反,A并不强依赖B,A对B响应的时间也不敏感,无论B返回还是不返回,A都能继续运行;B响应并返回了,A就继续做之前的事情,B没有响应,A就做其他的事情。也就是说A不存在等待对方的概念。

举个例子:

在你打完电话发现没人接听时,猜想:对方可能在忙,暂时无法接听电话,所以你发了一条短信(或者语音留言,亦或是其他的方式)通知对方后便忙其他要紧的事了;这时你就不需要持续不断的拨打电话,还可以做其他事情;待一定时间后,对方看到你的留言便回复响应你,当然对方可能转钱也可能不转钱。但是整个一天下来,你还做了很多事情。 或者说你找室友临时借了一笔钱,又开始happy的上学时光了。

对于多线程共享全局变量计算错误的问题,我们可以使用线程同步来进行解决。

扫描二维码关注公众号,回复: 5577720 查看本文章

2 互斥锁

当多个线程几乎同时修改一个共享数据的时候,需要进行同步控制,线程同步能够保证多个线程安全的访问竞争资源(全局内容),最简单的同步机制就是使用互斥锁。

某个线程要更改共享数据时,先将其锁定,此时资源的状态为锁定状态,其他线程就能更改,直到该线程将资源状态改为非锁定状态,也就是释放资源,其他的线程才能再次锁定资源。互斥锁保证了每一次只有一个线程进入写入操作。从而保证了多线程下数据的安全性。

练习1  用互斥锁解决 线程1 中的200万次的计算问题

import time, threading

g_num = 0

lock = threading.Lock()


def test1(num):
    global g_num
    lock.acquire()
    for i in range(num):
        g_num += 1
    lock.release()
    print('test1--->>', g_num)


def test2(num):
    global g_num
    lock.acquire()
    for i in range(num):
        g_num += 1
    lock.release()
    print('test1--->>', g_num)


def main():
    t1 = threading.Thread(target=test1, args=(1000000,))
    t2 = threading.Thread(target=test2, args=(1000000,))
    t1.start()
    t2.start()


if __name__ == '__main__':
    main()
    time.sleep(1)
    print('__main__',g_num)

"""
test1--->> 1000000
test1--->> 2000000
__main__ 2000000
"""

3  死锁

在多个线程共享资源的时候,如果两个线程分别占有一部分资源,并且同时等待对方的资源,就会造成死锁现象。

如果锁之间相互嵌套,就有可能出现死锁。因此尽量不要出现锁之间的嵌套。

import threading
import time


def test1():
    lock1.acquire()   #lock1 加锁
    print('test1...')
    time.sleep(1)
    lock2.acquire()
    print('test1---<<')
    lock2.release()
    lock1.release()


def tset2():
    lock2.acquire()
    print('test2...')
    # time.sleep(1)
    lock1.acquire()
    print('test2---<<')
    lock1.release()
    lock2.release()


lock1 = threading.Lock()
lock2 = threading.Lock()


def main():
    t1 = threading.Thread(target=test1())
    t2 = threading.Thread(target=tset2())
    t1.start()
    t2.start()


if __name__ == '__main__':
    main()

我在运行的时候没有成死锁o(* ̄︶ ̄*)o

所以这种方式只是可能会出现  ,不是必须的

4 线程队列

队列是一种先进先出(FIFO)的存储数据结构,就比如排队上厕所一个道理。

1.创建一个“队列”对象

import Queue # 导入模块

q = Queue.Queue(maxsize = 10)

Queue.Queue类即是一个队列的同步实现。队列长度可为无限或者有限。可通过Queue的构造函数的可选参数maxsize来设定队列长度。如果maxsize小于1就表示队列长度无限。

2.将一个值放入队列中 q.put(10)

调用队列对象的put()方法在队尾插入一个项目。

3.将一个值从队列中取出q.get()

从队头删除并返回一个项目。如果取不到数据则一直等待。

4.q.qsize() 返回队列的大小

5.q.empty() 如果队列为空,返回True,反之False

6.q.full() 如果队列满了,返回True,反之False

7.q.put_nowait(item) ,如果取不到不等待,之间抛出异常。

8.q.task_done() 在完成一项工作之后,q.task_done() 函数向任务已经完成的队列发送一个信号

9.q.join() 收到q.task_done()信号后再往下执行,否则一直等待。或者最开始时没有放数据join()不会阻塞。

q.task_done() 和 q.join() 通常一起使用。

import queue
q = queue.Queue(3)
q.put('zs')
q.put(123)
q.put([1,2,3])
# q.put('haha') #如果put的数据多出设置的的个数,程序就会一直卡在put这
#直到上面的数据去除后才能执行
print(q.get())
print(q.get())
print(q.get())
# print(q.get())   #如果q中没有数据了还 get 也会一直阻塞
print(q.get_nowait())  #如果没有了就直接抛出异常,不会等待
print(q.empty())   # 判断队列是否为空  如果是空 ,则返回True
print(q.full())  #  判断队列是否为满 ,如果满了则返回True

5 生产者和消费者模型

例如A是生产数据的线程,B是消费数据的线程。在多线程开发当中,如果A处理速度很快,而B处理速度很慢,那么A就必须等待B处理完,才能继续生产数据。同样的道理,如果B的处理能力大于A,那么B就必须等待A。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

这就像,在餐厅,厨师做好菜,不需要直接和客户交流,而是交给前台,而客户去饭菜也不需要不找厨师,直接去前台领取即可。

import queue, threading

q = queue.Queue()

lock1 = threading.Lock()
lock2 = threading.Lock()

def producer(name):
    count = 1
    while count <= 100:
        q.join()
        lock1.acquire()
        q.put(count)
        print('{}正在做第{}碗面条'.format(name, count))
        lock1.release()
        count += 1


def customer(name):
    count = 1
    while count <= 100:
        lock2.acquire()
        data = q.get(count)
        print('{}正在吃第{}碗面条'.format(name, data))
        count += 1
        lock2.release()
        q.task_done()


def main():
    # t1 = threading.Thread(target=producer, args=('海参',))
    # t2 = threading.Thread(target=customer, args=('小宝',))
    # t1.start()
    # t2.start()
    threading.Thread(target=customer, args=('小宝',)).start()
    threading.Thread(target=producer, args=('海参',)).start()

if __name__ == '__main__':
    main()

6  GIL 全局锁解释

GIL 即 :global interpreter lock 全局解释所。

在进行GIL讲解之前,我们可以先了解一下并行和并发:

并行:多个CPU同时执行多个任务,就好像有两个程序,这两个程序是真的在两个不同的CPU内同时被执行。

并发:CPU交替处理多个任务,还是有两个程序,但是只有一个CPU,会交替处理这两个程序,而不是同时执行,只不过因为CPU执行的速度过快,而会使得人们感到是在“同时”执行,执行的先后取决于各个程序对于时间片资源的争夺.

并行和并发同属于多任务,目的是要提高CPU的使用效率。这里需要注意的是,一个CPU永远不可能实现并行,即一个CPU不能同时运行多个程序。

Guido van Rossum(吉多·范罗苏姆)创建python时就只考虑到单核cpu,解决多线程之间数据完整性和状态同步的最简单方法自然就是加锁, 于是有了GIL这把超级大锁。因为cpython解析只允许拥有GIL全局解析器锁才能运行程序,这样就保证了保证同一个时刻只允许一个线程可以使用cpu。也就是说多线程并不是真正意义上的同时执行。

猜你喜欢

转载自blog.csdn.net/weixin_44303465/article/details/86595626