Python 中的并发 - 进程池
进程池的创建和使用方式与我们创建和使用线程池的方式相同。进程池可以定义为一组预先实例化的空闲进程,它们随时准备接受工作。当我们需要执行大量任务时,创建进程池优于为每个任务实例化新进程。
Python 模块 – Concurrent.futures
Python 标准库有一个名为并发.futures 的模块。Python 3.2 中添加了该模块,为开发人员提供启动异步任务的高级接口。它是 Python 线程和多处理模块顶部的抽象层,用于提供使用线程或进程池运行任务的接口。
在后续部分中,我们将研究并发.futures 模块的不同子类。
执行者类
Executor是concurrent.futures Python模块的抽象类。它不能直接使用,我们需要使用以下具体子类之一 -
- 线程池执行器
- 进程池执行器
ProcessPoolExecutor – 具体的子类
它是 Executor 类的具体子类之一。它使用多处理,我们得到一个用于提交任务的进程池。该池将任务分配给可用进程并安排它们运行。
如何创建ProcessPoolExecutor?
借助concurrent.futures模块及其具体子类Executor,我们可以轻松创建进程池。为此,我们需要构造一个ProcessPoolExecutor,其中包含我们想要在池中包含的进程数量。默认情况下,该数量为 5。然后将任务提交到进程池。
例子
我们现在将考虑创建线程池时使用的相同示例,唯一的区别是现在我们将使用ProcessPoolExecutor而不是ThreadPoolExecutor。
from concurrent.futures import ProcessPoolExecutor from time import sleep def task(message): sleep(2) return message def main(): executor = ProcessPoolExecutor(5) future = executor.submit(task, ("Completed")) print(future.done()) sleep(2) print(future.done()) print(future.result()) if __name__ == '__main__': main()
输出
False False Completed
在上面的例子中,一个Process PoolExecutor被构造成有5个线程。然后,一个任务将等待 2 秒,然后再发送消息,并将其提交给进程池执行器。从输出中可以看出,任务直到 2 秒后才完成,因此第一次调用 did ()将返回 False。2 秒后,任务完成,我们通过调用result()方法得到未来的结果。
实例化 ProcessPoolExecutor – 上下文管理器
实例化 ProcessPoolExecutor 的另一种方法是借助上下文管理器。它的工作原理与上面示例中使用的方法类似。使用上下文管理器的主要优点是它在语法上看起来很好。可以借助以下代码来完成实例化 -
with ProcessPoolExecutor(max_workers = 5) as executor
例子
为了更好地理解,我们采用与创建线程池时使用的相同的示例。在此示例中,我们需要首先导入并发.futures模块。然后创建一个名为load_url()的函数,它将加载请求的 url。然后使用池中的 5个线程创建ProcessPoolExecutor 。Process PoolExecutor已被用作上下文管理器。我们可以通过调用 future 的result()方法来获取 future 的结果。
import concurrent.futures from concurrent.futures import ProcessPoolExecutor import urllib.request URLS = ['http://www.foxnews.com/', 'http://www.cnn.com/', 'http://europe.wsj.com/', 'http://www.bbc.co.uk/', 'http://some-made-up-domain.com/'] def load_url(url, timeout): with urllib.request.urlopen(url, timeout = timeout) as conn: return conn.read() def main(): with concurrent.futures.ProcessPoolExecutor(max_workers=5) as executor: future_to_url = {executor.submit(load_url, url, 60): url for url in URLS} for future in concurrent.futures.as_completed(future_to_url): url = future_to_url[future] try: data = future.result() except Exception as exc: print('%r generated an exception: %s' % (url, exc)) else: print('%r page is %d bytes' % (url, len(data))) if __name__ == '__main__': main()
输出
上面的 Python 脚本将生成以下输出 -
'http://some-made-up-domain.com/' generated an exception: <urlopen error [Errno 11004] getaddrinfo failed> 'http://www.foxnews.com/' page is 229476 bytes 'http://www.cnn.com/' page is 165323 bytes 'http://www.bbc.co.uk/' page is 284981 bytes 'http://europe.wsj.com/' page is 967575 bytes
Executor.map()函数的使用
Python map()函数广泛用于执行许多任务。其中一项任务是将某个函数应用于可迭代对象中的每个元素。类似地,我们可以将迭代器的所有元素映射到一个函数,并将它们作为独立的作业提交给ProcessPoolExecutor。请考虑以下 Python 脚本示例来理解这一点。
例子
我们将考虑使用Executor.map()函数创建线程池时使用的相同示例。在下面给出的示例中,map 函数用于将square()函数应用于值数组中的每个值。
from concurrent.futures import ProcessPoolExecutor from concurrent.futures import as_completed values = [2,3,4,5] def square(n): return n * n def main(): with ProcessPoolExecutor(max_workers = 3) as executor: results = executor.map(square, values) for result in results: print(result) if __name__ == '__main__': main()
输出
上面的Python脚本将生成以下输出
4 9 16 25
何时使用 ProcessPoolExecutor 和 ThreadPoolExecutor?
现在我们已经研究了 Executor 类——ThreadPoolExecutor 和 ProcessPoolExecutor,我们需要知道何时使用哪个执行器。对于 CPU 密集型工作负载,我们需要选择 ProcessPoolExecutor;对于 I/O 密集型工作负载,我们需要选择 ThreadPoolExecutor。
如果我们使用ProcessPoolExecutor,那么我们不需要担心 GIL,因为它使用多处理。此外,与ThreadPoolExecution相比,执行时间会更少。请考虑以下 Python 脚本示例来理解这一点。
例子
import time import concurrent.futures value = [8000000, 7000000] def counting(n): start = time.time() while n > 0: n -= 1 return time.time() - start def main(): start = time.time() with concurrent.futures.ProcessPoolExecutor() as executor: for number, time_taken in zip(value, executor.map(counting, value)): print('Start: {} Time taken: {}'.format(number, time_taken)) print('Total time taken: {}'.format(time.time() - start)) if __name__ == '__main__': main()
输出
Start: 8000000 Time taken: 1.5509998798370361 Start: 7000000 Time taken: 1.3259999752044678 Total time taken: 2.0840001106262207 Example- Python script with ThreadPoolExecutor: import time import concurrent.futures value = [8000000, 7000000] def counting(n): start = time.time() while n > 0: n -= 1 return time.time() - start def main(): start = time.time() with concurrent.futures.ThreadPoolExecutor() as executor: for number, time_taken in zip(value, executor.map(counting, value)): print('Start: {} Time taken: {}'.format(number, time_taken)) print('Total time taken: {}'.format(time.time() - start)) if __name__ == '__main__': main()
输出
Start: 8000000 Time taken: 3.8420000076293945 Start: 7000000 Time taken: 3.6010000705718994 Total time taken: 3.8480000495910645
从上面两个程序的输出中,我们可以看到使用ProcessPoolExecutor和ThreadPoolExecutor时执行时间的差异。