python 多线程处理图像,充分利用CPU

Python是一门非常适合处理数据和自动化完成重复性工作的编程语言,我们在用数据训练机器学习模型之前,通常都需要对数据进行预处理,而Python就非常适合完成这项工作,比如需要重新调整几十万张图像的尺寸,用Python没问题!你几乎总是能找到一款可以轻松完成数据处理工作的Python库。

然而,虽然Python易于学习,使用方便,但它并非运行速度最快的语言。默认情况下,Python程序使用一个CPU以单个进程运行。不过如果你是在最近几年配置的电脑,通常都是四核处理器,也就是有8个CPU。这就意味着在你苦苦等待Python脚本完成数据处理工作时,你的电脑其实有90%甚至更多的计算资源就在那闲着没事干!

得益于Python的 concurrent.futures 模块,我们只需3行代码,就能将一个普通数据处理脚本变为能并行处理数据的脚本,提速8倍。

在这里插入图片描述

普通Python处理数据方法

比方说,我们有一个全是图像数据的文件夹,想用Python为每张图像做一些处理。

def process_image(filename):
    # do sth here
    return processedimg


# 循环文件夹中所有JPEG图像,为每张图像创建缩略图
for image_file in glob.glob("*.jpg"):
    processedimg= process_image(image_file)

这段脚本沿用了一个简单的模式,你会在数据处理脚本中经常见到这种方法:首先获得你想处理的文件(或其它数据)的列表,写一个辅助函数,能够处理上述文件的单个数据, 使用for循环调用辅助函数,处理每一个单个数据,一次一个。

但是这只是利用了CPU的一个线程,使用率很低。

试试创建多进程

下面是一种可以让我们并行处理数据的方法:

1.将所有JPEG文件划分为8小块。

2.运行Python解释器的8个单独实例。

3.让每个Python实例处理这8块数据中的一块。

4.将这8部分的处理结果合并,获得结果的最终列表。

4个Python拷贝程序在8个单独的CPU上运行,处理的工作量应该能比一个CPU大约高出8倍,对吧?

Python已经替我们做完了最麻烦的那部分工作。我们只需告诉它想运行哪个函数以及使用多少实例就行了,剩下的工作它会完成。整个过程我们只需要改动3行代码。

import glob
import os
from PIL import Image
import concurrent.futures


def process_image(filename):
    # do sth here
    return processedimg


# 告诉Python启动4个额外的Python实例,创建Process Pool,默认为电脑的每个CPU创建一个
with concurrent.futures.ProcessPoolExecutor() as executor: #
    # 获取需要处理的文件列表
    filenames= glob.glob("*.jpg")

    # 处理文件列表,但通过Process Pool划分工作,使用全部CPU!
    for processedimg zip(filenames, executor.map(process_image, filenames)):
        print('processed success')

该executor.map()函数调用时需要输入辅助函数和待处理的数据列表。这个函数能帮我完成所有麻烦的工作,包括将列表分为多个子列表、将子列表发送到每个子进程、运行子进程以及合并结果等。干得漂亮!这也能为我们返回每个函数调用的结果。Executor.map()函数会按照和输入数据相同的顺序返回结果。所以用Python的zip()函数作为捷径,一步获取原始文件名和每一步中的匹配结果。

适用的问题

  1. 从一系列单独的网页服务器日志里抓取统计数据。
  2. 从一堆XML,CSV和JSON文件中解析数据。
  3. 对大量图片数据做预处理,建立机器学习数据集。

不适用的问题

使用Process Pool需要在独立的Python处理进程之间来回传递数据。如果你要处理的数据不能在处理过程中被有效地传递,这种方法就行不通了。简而言之,你处理的数据必须是Python知道怎么应对的类型。

  1. 如果样本之间不是独立的,需要联合处理
  2. 少量样本

参考资料

Quick Tip: Speed up your Python data processing scripts with Process Pools

concurrent.futures — Launching parallel tasks

发布了236 篇原创文章 · 获赞 157 · 访问量 56万+

猜你喜欢

转载自blog.csdn.net/MrCharles/article/details/103189788