小さな手を動かして大金を稼いで、親指を立ててください!
質問
長い間、Python のマルチスレッド パフォーマンスは、GIL のせいで期待を満たしていませんでした。
そのため、Python ではバージョン 3.4 から、IO バインドされたタスクを並行して実行するための asyncio パッケージが導入されました。数回の反復の後、asyncio API の効果は非常に優れており、同時タスクのパフォーマンスはマルチスレッド バージョンと比較して大幅に向上しました。
ただし、プログラマーは依然として asyncio を使用するときに多くの間違いを犯します。
以下の図にエラーが示されており、await コルーチン メソッドを直接使用して同時タスクの呼び出しを非同期から同期に変更すると、最終的に同時実行機能が失われます。
async def main():
result_1 = await some_coro("name-1")
result_2 = await some_coro("name-2")
別のエラーが下の図に示されていますが、プログラマはバックグラウンドで実行するタスクを作成するために create_task を使用する必要があることに気づいています。以下のタスクを順番に待つ方法は、タイミングの異なるタスクを順番に待つ方法です。
async def main():
task_1 = asyncio.create_task(some_coro("name-1"))
task_2 = asyncio.create_task(some_coro("name-2"))
result_1 = await task_1
result_2 = await task_2
このコードは、task_2 が先に終了するかどうかに関係なく、task_1 が最初に終了するまで待機します。
タスクの同時実行とは何ですか?
では、実際の同時タスクとは何でしょうか? 画像で説明しましょう:
図に示すように、同時プロセスは 2 つの部分で構成されます。バックグラウンド タスクの開始、バックグラウンド タスクのメイン関数への再結合、および結果の取得です。
ほとんどの読者は、create_task を使用してバックグラウンド タスクを開始する方法をすでに知っています。今日は、バックグラウンド タスクが完了するのを待ついくつかの方法と、それぞれのベスト プラクティスについて説明します。
始める
今日の主役の紹介を始める前に、IO バインドのメソッド呼び出しをシミュレートする非同期メソッドの例と、テストで例外がスローされたときに例外情報をわかりやすく表示するために使用できるカスタム AsyncException を準備する必要があります。
from random import random, randint
import asyncio
class AsyncException(Exception):
def __init__(self, message, *args, **kwargs):
self.message = message
super(*args, **kwargs)
def __str__(self):
return self.message
async def some_coro(name):
print(f"Coroutine {name} begin to run")
value = random()
delay = randint(1, 4)
await asyncio.sleep(delay)
if value > 0.5:
raise AsyncException(f"Something bad happen after delay {delay} second(s)")
print(f"Coro {name} is Done. with delay {delay} second(s)")
return value
同時実行方式の比較
1.asyncio.gather
asyncio.gather を使用すると、バックグラウンド タスクのグループを開始し、実行が完了するのを待って、結果のリストを取得できます。
async def main():
aws, results = [], []
for i in range(3):
aws.append(asyncio.create_task(some_coro(f'name-{i}')))
results = await asyncio.gather(*aws) # need to unpack the list
for result in results:
print(f">got : {result}")
asyncio.run(main())
asyncio.gather は、バックグラウンド タスクのグループを構成する際に、リストまたはコレクションを引数として直接受け入れることができません。バックグラウンド タスクを含むリストを渡す必要がある場合は、解凍します。
asyncio.gather は return_Exceptions パラメータを受け入れます。return_Exception の値が False の場合、バックグラウンド タスクによってスローされた例外はすべて、gather メソッドの呼び出し元にスローされます。収集メソッドの結果リストは空です。
async def main():
aws, results = [], []
for i in range(3):
aws.append(asyncio.create_task(some_coro(f'name-{i}')))
try:
results = await asyncio.gather(*aws, return_exceptions=False) # need to unpack the list
except AsyncException as e:
print(e)
for result in results:
print(f">got : {result}")
asyncio.run(main())
当return_exception的值为True时,后台任务抛出的异常不会影响其他任务的执行,最终会合并到结果列表中一起返回。
results = await asyncio.gather(*aws, return_exceptions=True)
接下来我们看看为什么gather方法不能直接接受一个列表,而是要对列表进行解包。因为当一个列表被填满并执行时,我们很难在等待任务完成时向列表中添加新任务。但是 gather 方法可以使用嵌套组将现有任务与新任务混合,解决了中间无法添加新任务的问题:
async def main():
aws, results = [], []
for i in range(3):
aws.append(asyncio.create_task(some_coro(f'name-{i}')))
group_1 = asyncio.gather(*aws) # note we don't use await now
# when some situation happen, we may add a new task
group_2 = asyncio.gather(group_1, asyncio.create_task(some_coro("a new task")))
results = await group_2
for result in results:
print(f">got : {result}")
asyncio.run(main())
但是gather不能直接设置timeout参数。如果需要为所有正在运行的任务设置超时时间,就用这个姿势,不够优雅。
async def main():
aws, results = [], []
for i in range(3):
aws.append(asyncio.create_task(some_coro(f'name-{i}')))
results = await asyncio.wait_for(asyncio.gather(*aws), timeout=2)
for result in results:
print(f">got : {result}")
asyncio.run(main())
2. asyncio.as_completed
有时,我们必须在完成一个后台任务后立即开始下面的动作。比如我们爬取一些数据,马上调用机器学习模型进行计算,gather方法不能满足我们的需求,但是我们可以使用as_completed方法。
在使用 asyncio.as_completed 方法之前,我们先看一下这个方法的源码。
# This is *not* a @coroutine! It is just an iterator (yielding Futures).
def as_completed(fs, *, timeout=None):
# ...
for f in todo:
f.add_done_callback(_on_completion)
if todo and timeout is not None:
timeout_handle = loop.call_later(timeout, _on_timeout)
for _ in range(len(todo)):
yield _wait_for_one()
源码显示as_completed不是并发方法,返回一个带有yield语句的迭代器。所以我们可以直接遍历每个完成的后台任务,我们可以对每个任务单独处理异常,而不影响其他任务的执行:
async def main():
aws = []
for i in range(5):
aws.append(asyncio.create_task(some_coro(f"name-{i}")))
for done in asyncio.as_completed(aws): # we don't need to unpack the list
try:
result = await done
print(f">got : {result}")
except AsyncException as e:
print(e)
asyncio.run(main())
as_completed 接受超时参数,超时后当前迭代的任务会抛出asyncio.TimeoutError:
async def main():
aws = []
for i in range(5):
aws.append(asyncio.create_task(some_coro(f"name-{i}")))
for done in asyncio.as_completed(aws, timeout=2): # we don't need to unpack the list
try:
result = await done
print(f">got : {result}")
except AsyncException as e:
print(e)
except asyncio.TimeoutError: # we need to handle the TimeoutError
print("time out.")
asyncio.run(main())
as_complete在处理任务执行的结果方面比gather灵活很多,但是在等待的时候很难往原来的任务列表中添加新的任务。
3. asyncio.wait
asyncio.wait 的调用方式与 as_completed 相同,但返回一个包含两个集合的元组:done 和 pending。 done 保存已完成执行的任务,而 pending 保存仍在运行的任务。
asyncio.wait 接受一个 return_when 参数,它可以取三个枚举值:
-
当return_when为asyncio.ALL_COMPLETED时,done存放所有完成的任务,pending为空。 -
当 return_when 为 asyncio.FIRST_COMPLETED 时,done 持有所有已完成的任务,而 pending 持有仍在运行的任务。
async def main():
aws = set()
for i in range(5):
aws.add(asyncio.create_task(some_coro(f"name-{i}")))
done, pending = await asyncio.wait(aws, return_when=asyncio.FIRST_COMPLETED)
for task in done:
try:
result = await task
print(f">got : {result}")
except AsyncException as e:
print(e)
print(f"the length of pending is {len(pending)}")
asyncio.run(main())
-
当return_when为asyncio.FIRST_EXCEPTION时,done存放抛出异常并执行完毕的任务,pending存放仍在运行的任务。
当 return_when 为 asyncio.FIRST_COMPLETED 或 asyncio.FIRST_EXECEPTION 时,我们可以递归调用 asyncio.wait,这样我们就可以添加新的任务,并根据情况一直等待所有任务完成。
async def main():
pending = set()
for i in range(5):
pending.add(asyncio.create_task(some_coro(f"name-{i}"))) # note the type and name of the task list
while pending:
done, pending = await asyncio.wait(pending, return_when=asyncio.FIRST_EXCEPTION)
for task in done:
try:
result = await task
print(f">got : {result}")
except AsyncException as e:
print(e)
pending.add(asyncio.create_task(some_coro("a new task")))
print(f"the length of pending is {len(pending)}")
asyncio.run(main())
4. asyncio.TaskGroup
在 Python 3.11 中,asyncio 引入了新的 TaskGroup API,正式让 Python 支持结构化并发。此功能允许您以更 Pythonic 的方式管理并发任务的生命周期。
总结
本文[1]介绍了 asyncio.gather、asyncio.as_completed 和 asyncio.wait API,还回顾了 Python 3.11 中引入的新 asyncio.TaskGroup 特性。
根据实际需要使用这些后台任务管理方式可以让我们的asyncio并发编程更加灵活。
Reference
Source: https://towardsdatascience.com/use-these-methods-to-make-your-python-concurrent-tasks-perform-better-b693b7a633e1
本文由 mdnice 多平台发布