运筹帷幄决胜千里,Python3.10原生协程asyncio工业级真实协程异步消费任务调度实践
我们一直都相信这样一种说法:协程是比多线程更高效的一种并发工作方式,它完全由程序本身所控制,也就是在用户态执行,协程避免了像线程切换那样产生的上下文切换,在性能方面得到了很大的提升。毫无疑问,这是颠扑不破的业界共识,是放之四海而皆准的真理。
但事实上,协程远比大多数人想象中的复杂,正因为协程的“用户态”特性,任务调度权掌握在撰写协程任务的人手里,而仅仅依赖async和await关键字远远达不到“调度”的级别,有时候反而会拖累任务效率,使其在任务执行效率上还不及“系统态”的多线程和多进程,本次我们来探讨一下Python3原生协程任务的调度管理。
Python3.10协程库async.io的基本操作
事件循环(Eventloop)是 原生协程库asyncio 的核心,可以理解为总指挥。Eventloop实例提供了注册、取消和执行任务和回调的方法。
Eventloop可以将一些异步方法绑定到事件循环上,事件循环会循环执行这些方法,但是和多线程一样,同时只能执行一个方法,因为协程也是单线程执行。当执行到某个方法时,如果它遇到了阻塞,事件循环会暂停它的执行去执行其他的方法,与此同时为这个方法注册一个回调事件,当某个方法从阻塞中恢复,下次轮询到它的时候将会继续执行,亦或者,当没有轮询到它,它提前从阻塞中恢复,也可以通过回调事件进行切换,如此往复,这就是事件循环的简单逻辑。
而上面最核心的动作就是切换别的方法,怎么切换?用await关键字:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
async def job2():
print('job2开始')
async def main():
await job1()
await job2()
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job1结束
job2开始
是的,切则切了,可切的对吗?事实上这两个协程任务并没有达成“协作”,因为它们是同步执行的,所以并不是在方法内await了,就可以达成协程的工作方式,我们需要并发启动这两个协程任务:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
async def job2():
print('job2开始')
async def main():
#await job1()
#await job2()
await asyncio.gather(job1(), job2())
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job2开始
job1结束
如果没有asyncio.gather的参与,协程方法就是普通的同步方法,就算用async声明了异步也无济于事。而asyncio.gather的基础功能就是将协程任务并发执行,从而达成“协作”。
但事实上,Python3.10也支持“同步写法”的协程方法:
async def create_task():
task1 = asyncio.create_task(job1())
task2 = asyncio.create_task(job2())
await task1
await task2
这里我们通过asyncio.create_task对job1和job2进行封装,返回的对象再通过await进行调用,由此两个单独的异步方法就都被绑定到同一个Eventloop了,这样虽然写法上同步,但其实是异步执行:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
async def job2():
print('job2开始')
async def create_task():
task1 = asyncio.create_task(job1())
task2 = asyncio.create_task(job2())
await task1
await task2
async def main():
#await job1()
#await job2()
await asyncio.gather(job1(), job2())
if __name__ == '__main__':
asyncio.run(create_task())
系统返回:
job1开始
job2开始
job1结束
协程任务的上下游监控
解决了并发执行的问题,现在假设每个异步任务都会返回一个操作结果:
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
通过asyncio.gather方法,我们可以收集到任务执行结果:
async def main():
res = await asyncio.gather(job1(), job2())
print(res)
并发执行任务:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
async def main():
res = await asyncio.gather(job1(), job2())
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job2开始
job1结束
['job1', 'job2']
但任务结果仅仅也就是方法的返回值,除此之外,并没有其他有价值的信息,对协程任务的执行明细讳莫如深。
现在我们换成asyncio.wait方法:
async def main():
res = await asyncio.wait([job1(), job2()])
print(res)
依然并发执行:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
async def main():
res = await asyncio.wait([job1(), job2()])
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job2开始
job1结束
({<Task finished name='Task-2' coro=<job1() done, defined at /Users/liuyue/Downloads/upload/test/test_async.py:4> result='job1任务结果'>, <Task finished name='Task-3' coro=<job2() done, defined at /Users/liuyue/Downloads/upload/test/test_async.py:12> result='job2任务结果'>}, set())
可以看出,asyncio.wait返回的是任务对象,里面存储了大部分的任务信息,包括执行状态。
在默认情况下,asyncio.wait会等待全部任务完成 (return_when='ALL_COMPLETED'),它还支持 return_when='FIRST_COMPLETED'(第一个协程完成就返回)和 return_when='FIRST_EXCEPTION'(出现第一个异常就返回)。
这就非常令人兴奋了,因为如果异步消费任务是发短信之类的需要统计达到率的任务,利用asyncio.wait特性,我们就可以第一时间记录任务完成或者异常的具体时间。
协程任务守护
假设由于某种原因,我们手动终止任务消费:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
async def main():
task1 = asyncio.create_task(job1())
task2 = asyncio.create_task(job2())
task1.cancel()
res = await asyncio.gather(task1, task2)
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统报错:
File "/Users/liuyue/Downloads/upload/test/test_async.py", line 23, in main
res = await asyncio.gather(task1, task2)
asyncio.exceptions.CancelledError
这里job1被手动取消,但会影响job2的执行,这违背了协程“互相提携”的特性。
事实上,asyncio.gather方法可以捕获协程任务的异常:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
async def main():
task1 = asyncio.create_task(job1())
task2 = asyncio.create_task(job2())
task1.cancel()
res = await asyncio.gather(task1, task2,return_exceptions=True)
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job2开始
[CancelledError(''), 'job2任务结果']
可以看到job1没有被执行,并且异常替代了任务结果作为返回值。
但如果协程任务启动之后,需要保证任务情况下都不会被取消,此时可以使用asyncio.shield方法守护协程任务:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
async def main():
task1 = asyncio.shield(job1())
task2 = asyncio.create_task(job2())
res = await asyncio.gather(task1, task2,return_exceptions=True)
task1.cancel()
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job2开始
job1结束
['job1任务结果', 'job2任务结果']
协程任务回调
假设协程任务执行完毕之后,需要立刻进行回调操作,比如将任务结果推送到其他接口服务上:
import asyncio
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
def callback(future):
print(f'回调任务: {future.result()}')
async def main():
task1 = asyncio.shield(job1())
task2 = asyncio.create_task(job2())
task1.add_done_callback(callback)
res = await asyncio.gather(task1, task2,return_exceptions=True)
print(res)
if __name__ == '__main__':
asyncio.run(main())
这里我们通过add_done_callback方法对job1指定了callback方法,当任务执行完以后,callback会被调用,系统返回:
job1开始
job2开始
job1结束
回调任务: job1任务结果
['job1任务结果', 'job2任务结果']
与此同时,add_done_callback方法不仅可以获取协程任务返回值,它自己也支持参数参数传递:
import asyncio
from functools import partial
async def job1():
print('job1开始')
await asyncio.sleep(1)
print('job1结束')
return "job1任务结果"
async def job2():
print('job2开始')
return "job2任务结果"
def callback(future,num):
print(f"回调参数{num}")
print(f'回调任务: {future.result()}')
async def main():
task1 = asyncio.shield(job1())
task2 = asyncio.create_task(job2())
task1.add_done_callback(partial(callback,num=1))
res = await asyncio.gather(task1, task2,return_exceptions=True)
print(res)
if __name__ == '__main__':
asyncio.run(main())
系统返回:
job1开始
job2开始
job1结束
回调参数1
回调任务: job1任务结果
['job1任务结果', 'job2任务结果']
结语
成也用户态,败也用户态。所谓水能载舟亦能覆舟,协程消费任务的调度远比多线程的系统级调度要复杂,稍不留神就会造成业务上的“同步”阻塞,弄巧成拙,适得其反。这也解释了为什么相似场景中多线程的出场率要远远高于协程,就是因为多线程不需要考虑启动后的“切换”问题,无为而为,简单粗暴。
运筹帷幄决胜千里,Python3.10原生协程asyncio工业级真实协程异步消费任务调度实践的更多相关文章
- Python 原生协程------asyncio
协程 在python3.5以前,写成的实现都是通过生成器的yield from原理实现的, 这样实现的缺点是代码看起来会很乱,于是3.5版本之后python实现了原生的协程,并且引入了async和aw ...
- 小议Python3的原生协程机制
此文已由作者张耕源授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 在最近发布的 Python 3.5 版本中,官方正式引入了 async/await关键字.在 asyncio ...
- 物无定味适口者珍,Python3并发场景(CPU密集/IO密集)任务的并发方式的场景抉择(多线程threading/多进程multiprocessing/协程asyncio)
原文转载自「刘悦的技术博客」https://v3u.cn/a_id_221 一般情况下,大家对Python原生的并发/并行工作方式:进程.线程和协程的关系与区别都能讲清楚.甚至具体的对象名称.内置方法 ...
- python——asyncio模块实现协程、异步编程
我们都知道,现在的服务器开发对于IO调度的优先级控制权已经不再依靠系统,都希望采用协程的方式实现高效的并发任务,如js.lua等在异步协程方面都做的很强大. Python在3.4版本也加入了协程的概念 ...
- 11.python3标准库--使用进程、线程和协程提供并发性
''' python提供了一些复杂的工具用于管理使用进程和线程的并发操作. 通过应用这些计数,使用这些模块并发地运行作业的各个部分,即便是一些相当简单的程序也可以更快的运行 subprocess提供了 ...
- 二、深入asyncio协程(任务对象,协程调用原理,协程并发)
由于才开始写博客,之前都是写笔记自己看,所以可能会存在表述不清,过于啰嗦等各种各样的问题,有什么疑问或者批评欢迎在评论区留言. 如果你初次接触协程,请先阅读上一篇文章初识asyncio协程对asy ...
- python协程--asyncio模块(基础并发测试)
在高并发的场景下,python提供了一个多线程的模块threading,但似乎这个模块并不近人如意,原因在于cpython本身的全局解析锁(GIL)问题,在一段时间片内实际上的执行是单线程的.同时还存 ...
- Python协程之asyncio
asyncio 是 Python 中的异步IO库,用来编写并发协程,适用于IO阻塞且需要大量并发的场景,例如爬虫.文件读写. asyncio 在 Python3.4 被引入,经过几个版本的迭代,特性. ...
- Python自动化 【第十篇】:Python进阶-多进程/协程/事件驱动与Select\Poll\Epoll异步IO
本节内容: 多进程 协程 事件驱动与Select\Poll\Epoll异步IO 1. 多进程 启动多个进程 进程中启进程 父进程与子进程 进程间通信 不同进程间内存是不共享的,要想实现两个进程间 ...
随机推荐
- 面试官:BIO、NIO、AIO是什么,他们有什么区别?
哈喽!大家好,我是小奇,一位热爱分享的程序员 小奇打算以轻松幽默的对话方式来分享一些技术,如果你觉得通过小奇的文章学到了东西,那就给小奇一个赞吧 文章持续更新 一.前言 书接上回,感觉上次的公司氛围不 ...
- nodejs使用 svg-captcha 做验证码及验证
一.需求 使用 nodejs 做后端开发,需要请求验证码,在 github 上看到了 svg-captcha 这个库,发现他是将 text 转 svg 进行返回的,安全性也有保证,不会被识别成文字. ...
- 关于基础RMQ——ST算法
RMQ,Range Maximum/Minimum Query,顾名思义,就是询问某个区间内的最大值或最小值,今天我主要记录的是其求解方法--ST算法 相对于线段树,它的运行速度会快很多,可以做到O( ...
- 从零开始实现lmax-Disruptor队列(一)RingBuffer与单生产者、单消费者工作原理解析
1.lmax-Disruptor队列介绍 disruptor是英国著名的金融交易所lmax旗下技术团队开发的一款java实现的高性能内存队列框架 其发明disruptor的主要目的是为了改进传统的内存 ...
- React简单教程-5-使用mock
前言 一个前后端分离的项目,前端人员需要对接后端的接口.如果在后端的接口没有开发好,或者没有测试版可以对接的情况下,前端人员也不能坐等后端接口写好后再开始开发. 一个项目的,理想情况下接口的规范应该是 ...
- 修改windows字符集
手动 临时修改cmd默认字符集(代码页) chcp xxxx 自动<打开cmd后应该自动运行dhcp 65001,临时设置为utf-8> D:\Develope\apache-tomcat ...
- 换根 DP 学习笔记
前言 没脑子选手什么都不会. 正文 先来写一下换根 DP 的特点或应用方面: 不同的点作为树的根节点,答案不一样. 求解答案时要求出每一个节点的信息. 无法通过一次搜索完成答案的求解,因为一次搜索只能 ...
- 基于InsightFace的高精度人脸识别,可直接对标虹软
一.InsightFace简介 InsightFace 是一个 2D/3D 人脸分析项目.InsightFace 的代码是在 MIT 许可下发布的. 对于 acadmic 和商业用途没有限制. 包含注 ...
- labview从入门到出家1--第一个加法程序
概述: Labview在众多编程语言中排名靠后,显然在当今互联网,物联网时代并非主流语言.但是俗话说行行 出状元,即便不是立身于某个主流的领域,用好了依旧可以独领风骚,而且Labview对于硬件出身的 ...
- eclipse使用小记录
(手动狗头)之前用eclipse的时候左侧的project栏不知道为什么整没了....记录一下 1.击Window--how View--other 2.Project Explorer,就可以了