欢迎光临散文网 会员登陆 & 注册

仅需三行Python代码,让数据预处理速度提高2到6倍!

2021-06-19 22:27 作者:Python学习猿  | 我要投稿


我们熟知Python语法简单、功能强大、可扩展性强,但是运行速度慢是解释型语言的通病,Python 也不例外。

在 Python 中,我们可以找到原生的并行化运算指令。今天给大家分享 3 行代码,大大加快数据预处理的速度。

在默认情况下,Python 程序是单个进程,使用单 CPU 核心执行

而大多数硬件都至少搭载了双核处理器。这意味着如果没有进行优化,在数据预处理的时候会出现「一核有难九核围观」的情况——超过 50% 的算力都会被浪费。

幸运的是,Python 库中内建了一些隐藏的特性,可以让我们充分利用所有 CPU 核心的能力。

通过使用 Python 的 concurrent.futures 模块,我们只需要 3 行代码就可以让一个普通的程序转换成适用于多核处理器并行处理的程序。

一、标准方法

让我们举一个简单的例子,在单个文件夹中有一个图片数据集,其中有数万张图片。

在这里,我们决定使用 1000 张。我们希望在所有图片被传递到深度神经网络之前将其调整为 600×600 像素分辨率的形式。

以下是你经常会在 GitHub 上看到的标准 Python 代码:

上面的程序遵循你在处理数据脚本时经常看到的简单模式:

  1. 首先从需要处理内容的文件(或其他数据)列表开始。

  2. 使用 for 循环逐个处理每个数据,然后在每个循环迭代上运行预处理。

让我们在一个包含 1000 个 jpeg 文件的文件夹上测试这个程序,看看运行它需要多久:

在我的酷睿 i7-8700k 6 核 CPU 上,运行时间为 7.9864 秒!在这样的高端 CPU 上,这种速度看起来是难以让人接受的,看看我们能做点什么。

二、更快的方法

为了便于理解并行化的提升,假设我们需要执行相同的任务,比如将 1000 个钉子钉入木头,假如钉入一个需要一秒,一个人就需要 1000 秒来完成任务。四个人组队就只需要 250 秒。

在我们这个包含 1000 个图像的例子中,可以让 Python 做类似的工作:

  • 将 jpeg 文件列表分成 4 个小组;

  • 运行 Python 解释器中的 4 个独立实例;

  • 让 Python 的每个实例处理 4 个数据小组中的一个;

  • 结合四个处理过程得到的结果得出最终结果列表。

这一方法的重点在于,Python 帮我们处理了所有棘手的工作。我们只需告诉它我们想要运行哪个函数,要用多少 Python 实例,剩下的就交给它了!只需改变三行代码。实例:

 从以上代码中摘出一行:

 你的 CPU 核越多,启动的 Python 进程越多,我的 CPU 有 6 个核。实际处理代码如下:

「executor.map()」将你想要运行的函数和列表作为输入,列表中的每个元素都是我们函数的单个输入。由于我们有 6 个核,我们将同时处理该列表中的 6 个项目!

如果再次用以下代码运行我们的程序:

我们可以将运行时间降到 1.14265 秒,速度提升了近 6 倍!

最后

注意:在生成更多 Python 进程及在它们之间整理数据时会有一些开销,所以速度提升并不总是这么明显。

但是总的来说,速度提升还是非常可观的。


仅需三行Python代码,让数据预处理速度提高2到6倍!的评论 (共 条)

分享到微博请遵守国家法律