news 2026/4/15 21:42:02

一文讲透Python线程池ThreadPoolExecutor

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
一文讲透Python线程池ThreadPoolExecutor

01 初识

Python中已经有了threading模块,为什么还需要线程池呢,线程池又是什么东西呢?在介绍线程同步的信号量机制的时候,举得例子是爬虫的例子,需要控制同时爬取的线程数,例子中创建了20个线程,而同时只允许3个线程在运行,但是20个线程都需要创建和销毁,线程的创建是需要消耗系统资源的,有没有更好的方案呢?其实只需要三个线程就行了,每个线程各分配一个任务,剩下的任务排队等待,当某个线程完成了任务的时候,排队任务就可以安排给这个线程继续执行。

这就是线程池的思想(当然没这么简单),但是自己编写线程池很难写的比较完美,还需要考虑复杂情况下的线程同步,很容易发生死锁。从Python3.2开始,标准库为我们提供了concurrent.futures模块,它提供了ThreadPoolExecutorProcessPoolExecutor两个类,实现了对threadingmultiprocessing进一步抽象(这里主要关注线程池),不仅可以帮我们自动调度线程,还可以做到:

  • 主线程可以获取某一个线程(或者任务的)的状态,以及返回值。

  • 当一个线程完成的时候,主线程能够立即知道。

  • 让多线程和多进程的编码接口一致。

02 实例

简单使用

  1. from concurrent.futures import ThreadPoolExecutor

  2. import time

  3. # 参数times用来模拟网络请求的时间

  4. def get_html(times):

  5. time.sleep(times)

  6. print("get page {}s finished".format(times))

  7. return times

  8. executor = ThreadPoolExecutor(max_workers=2)

  9. # 通过submit函数提交执行的函数到线程池中,submit函数立即返回,不阻塞

  10. task1 = executor.submit(get_html, (3))

  11. task2 = executor.submit(get_html, (2))

  12. # done方法用于判定某个任务是否完成

  13. print(task1.done())

  14. # cancel方法用于取消某个任务,该任务没有放入线程池中才能取消成功

  15. print(task2.cancel())time.sleep(4)print(task1.done())

  16. # result方法可以获取task的执行结果

  17. print(task1.result())

  18. # 执行结果# False

  19. # 表明task1未执行完成# False

  20. # 表明task2取消失败,因为已经放入了线程池中

  21. # get page 2s finished# get page 3s finished# True

  22. # 由于在get page 3s finished之后才打印,所以此时task1必然完成了

  23. # 3

  24. # 得到task1的任务返回值

ThreadPoolExecutor构造实例的时候,传入max_workers参数来设置线程池中最多能同时运行的线程数目。

  • 使用submit函数来提交线程需要执行的任务(函数名和参数)到线程池中,并返回该任务的句柄(类似于文件、画图),注意submit()不是阻塞的,而是立即返回。

  • 通过submit函数返回的任务句柄,能够使用done()方法判断该任务是否结束。上面的例子可以看出,由于任务有2s的延时,在task1提交后立刻判断,task1还未完成,而在延时4s之后判断,task1就完成了。

  • 使用cancel()方法可以取消提交的任务,如果任务已经在线程池中运行了,就取消不了。这个例子中,线程池的大小设置为2,任务已经在运行了,所以取消失败。如果改变线程池的大小为1,那么先提交的是task1task2还在排队等候,这是时候就可以成功取消。

  • 使用result()方法可以获取任务的返回值。查看内部代码,发现这个方法是阻塞的。

as_completed

上面虽然提供了判断任务是否结束的方法,但是不能在主线程中一直判断啊。有时候我们是得知某个任务结束了,就去获取结果,而不是一直判断每个任务有没有结束。这是就可以使用as_completed方法一次取出所有任务的结果。

  1. from concurrent.futures import ThreadPoolExecutor, as_completed

  2. import time

  3. # 参数times用来模拟网络请求的时间

  4. def get_html(times):

  5. time.sleep(times)

  6. print("get page {}s finished".format(times))

  7. return times

  8. executor = ThreadPoolExecutor(max_workers=2)

  9. urls = [3, 2, 4] # 并不是真的url

  10. all_task = [executor.submit(get_html, (url)) for url in urls]

  11. for future in as_completed(all_task):

  12. data = future.result()

  13. print("in main: get page {}s success".format(data))#

  14. 执行结果

  15. # get page 2s finished

  16. # in main: get page 2s success

  17. # get page 3s finished

  18. # in main: get page 3s success

  19. # get page 4s finished

  20. # in main: get page 4s success

as_completed()方法是一个生成器,在没有任务完成的时候,会阻塞,在有某个任务完成的时候,会yield这个任务,就能执行for循环下面的语句,然后继续阻塞住,循环到所有的任务结束。从结果也可以看出,先完成的任务会先通知主线程

map

除了上面的as_completed方法,还可以使用executor.map方法,但是有一点不同。

  1. from concurrent.futures import ThreadPoolExecutor

  2. import time

  3. # 参数times用来模拟网络请求的时间def get_html(times):

  4. time.sleep(times)

  5. print("get page {}s finished".format(times))

  6. return times

  7. executor = ThreadPoolExecutor(max_workers=2)

  8. urls = [3, 2, 4] # 并不是真的url

  9. for data in executor.map(get_html, urls):

  10. print("in main: get page {}s success".format(data))

  11. # 执行结果

  12. # get page 2s finished

  13. # get page 3s finished

  14. # in main: get page 3s success

  15. # in main: get page 2s success

  16. # get page 4s finished

  17. # in main: get page 4s success

使用map方法,无需提前使用submit方法,map方法与python标准库中的map含义相同,都是将序列中的每个元素都执行同一个函数。上面的代码就是对urls的每个元素都执行get_html函数,并分配各线程池。可以看到执行结果与上面的as_completed方法的结果不同,输出顺序和urls列表的顺序相同,就算2s的任务先执行完成,也会先打印出3s的任务先完成,再打印2s的任务完成。

wait

wait方法可以让主线程阻塞,直到满足设定的要求。

  1. ​from concurrent.futures import ThreadPoolExecutor, wait, ALL_COMPLETED, FIRST_COMPLETEDimport time

  2. # 参数times用来模拟网络请求的时间

  3. def get_html(times):

  4. time.sleep(times)

  5. print("get page {}s finished".format(times))

  6. return times

  7. executor = ThreadPoolExecutor(max_workers=2)

  8. urls = [3, 2, 4] # 并不是真的url

  9. all_task = [executor.submit(get_html, (url)) for url in urls]

  10. wait(all_task, return_when=ALL_COMPLETED)print("main")

  11. # 执行结果

  12. # get page 2s finished

  13. # get page 3s finished

  14. # get page 4s finished

  15. # main

wait方法接收3个参数,等待的任务序列、超时时间以及等待条件。等待条件return_when默认为ALL_COMPLETED,表明要等待所有的任务都结束。可以看到运行结果中,确实是所有任务都完成了,主线程才打印出main。等待条件还可以设置为FIRST_COMPLETED,表示第一个任务完成就停止等待。

03 源码分析

cocurrent.future模块中的future的意思是未来对象,可以把它理解为一个在未来完成的操作,这是异步编程的基础 。在线程池submit()之后,返回的就是这个future对象,返回的时候任务并没有完成,但会在将来完成。也可以称之为task的返回容器,这个里面会存储task的结果和状态。那ThreadPoolExecutor内部是如何操作这个对象的呢?

下面简单介绍ThreadPoolExecutor的部分代码:

1.init方法

init方法中主要重要的就是任务队列和线程集合,在其他方法中需要使用到。

2.submit方法

submit中有两个重要的对象,_base.Future()_WorkItem()对象,_WorkItem()对象负责运行任务和对future象进行设置,最后会将future对象返回,可以看到整个过程是立即返回的,没有阻塞。

3.adjust_thread_count方法

这个方法的含义很好理解,主要是创建指定的线程数。但是实现上有点难以理解,比如线程执行函数中的weakref.ref,涉及到了弱引用等概念,留待以后理解。

4._WorkItem对象

_WorkItem对象的职责就是执行任务和设置结果。这里面主要复杂的还是self.future.set_result(result)

5.线程执行函数--_worker

这是线程池创建线程时指定的函数入口,主要是从队列中依次取出task执行,但是函数的第一个参数还不是很明白。留待以后。

04 总结

  • future的设计理念很棒,在线程池/进程池和携程中都存在future对象,是异步编程的核心。

  • ThreadPoolExecutor 让线程的使用更加方便,减小了线程创建/销毁的资源损耗,无需考虑线程间的复杂同步,方便主线程与子线程的交互。

  • 线程池的抽象程度很高,多线程和多进程的编码接口一致。

未完成

  • 对future模块的理解。

  • weakref.ref是什么?

  • 线程执行函数入口_worker的第一个参数的意思。

感谢每一个认真阅读我文章的人,礼尚往来总是要有的,虽然不是什么很值钱的东西,如果你用得到的话可以直接拿走:

这些资料,对于【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴上万个测试工程师们走过最艰难的路程,希望也能帮助到你!有需要的小伙伴可以点击下方小卡片领取

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/14 1:46:56

职场人必看:高效工作汇报的秘诀,竟藏在这3个框架里?

每天加班到深夜,汇报时却总被领导说“重点不突出”“逻辑一团乱”?你辛辛苦苦做的工作成果,可能输在了不会搭框架上。其实,高手汇报从不靠堆细节取胜,而是用对了这三个底层结构——分类清楚、逻辑推进、以上统下。掌握…

作者头像 李华
网站建设 2026/4/8 20:07:39

深入Linux系统安全:内核安全、权限控制与入侵检测实战解析

Linux网络安全一直是IT行业中备受关注的话题,而红帽作为Linux操作系统的知名发行版,在网络安全领域也扮演着重要的角色。红帽公司一直致力于为用户提供安全可靠的Linux解决方案,以帮助用户建立强大的网络安全防护体系。 首先,红帽…

作者头像 李华
网站建设 2026/4/16 14:06:02

PyTorch-CUDA-v2.7镜像支持Triton推理服务器,提升服务吞吐

PyTorch-CUDA-v2.7镜像支持Triton推理服务器,提升服务吞吐 在AI模型日益复杂、部署需求不断增长的今天,如何让一个训练好的PyTorch模型真正“跑得快、稳得住、扩得开”,是每个机器学习工程师面临的现实挑战。尤其是在生产环境中,我…

作者头像 李华
网站建设 2026/4/9 0:38:28

PyTorch-CUDA-v2.7镜像支持NVIDIA T4,性价比云端训练方案

PyTorch-CUDA-v2.7镜像支持NVIDIA T4,性价比云端训练方案 在深度学习项目从实验室走向落地的过程中,一个反复出现的痛点是:明明代码写好了,却卡在“环境跑不起来”上。CUDA 版本不对、cuDNN 缺失、PyTorch 和驱动不兼容……这些琐…

作者头像 李华
网站建设 2026/4/16 1:31:12

SSH免密登录配置:连接PyTorch-CUDA-v2.7容器提升效率

SSH免密登录配置:连接PyTorch-CUDA-v2.7容器提升效率 在深度学习项目中,开发者常常面临一个看似不起眼却频繁出现的痛点——每次进入开发环境都要输入密码。尤其是在使用远程GPU服务器上的Docker容器进行模型训练时,这种重复操作不仅打断思路…

作者头像 李华
网站建设 2026/4/16 11:11:47

ue 动作 动画学习笔记

直接用(无需重定向)1️⃣ 把 MetaHuman 拖进关卡Content Drawer → MetaHumans/你的角色/Blueprints拖 BP_你的角色 到场景2️⃣ 找到动画动画一般在:Content/MetaHumans/Common/Animations 或 Content/Animations/ 文件类型是:An…

作者头像 李华