本着 「路漫漫其修远兮, 吾将上下而求索」 的精神。终于要开始深入研究 Python 中 asyncio 的源码实现啦。
本文章可能篇幅较长,因为是逐行分析 asyncio 的实现,也需要读者具有一定的 asyncio 编码经验和功底,推荐刚开始踏上 Python 异步编程之旅的朋友们可以先从官方文档入手,由浅入深步步为营。
若在读的你对此感兴趣,那么很开心能与你分享我的学习成果。
本次源码分析将在 Python 3.11.3 的版本上进行探索。
PS: 笔者功力有限,若有不足之处还望及时指正,因为是逐行分析所以过程稍显枯燥。
更建议屏幕前的你打开 source code 跟随整篇文章花费一定的时间一起研究,尽信书不如无书,对此文持以质疑的态度去阅读将有更大的收获。
在 Python 中,当一个模块被导入时,Python 解释器会执行该模块中的全局代码。
而全局代码则是指在模块中未被封装在函数或类中的代码,它们会在模块被导入时率先执行。
这意味着全局代码可以包括变量的初始化、函数的定义、类的定义、条件语句、循环等。这些代码在模块被导入时执行,用于设置模块的初始状态或执行一些必要的操作。
查看源码时,一定不要忽略全局代码。
PS: 一个小技巧,查看全局代码最好的办法就是将所有的 fold 都先收起来,vim 中使用 zM 快捷键即可。
研究任何一个模块,我们需先从 import 开始,因为那里的代码会率先执行:
import asyncio
点进 asyncio 模块之后,可以发现它的入口文件 __init__ 篇幅是较为简短的:
import sys from .base_events import * from .coroutines import * from .events import * from .exceptions import * from .futures import * from .locks import * from .protocols import * from .runners import * from .queues import * from .streams import * from .subprocess import * from .tasks import * from .taskgroups import * from .timeouts import * from .threads import * from .transports import * # __all__ 指的是 from asyncio import * # 时 * 所包含的资源 __all__ = (base_events.__all__ + coroutines.__all__ + events.__all__ + exceptions.__all__ + futures.__all__ + locks.__all__ + protocols.__all__ + runners.__all__ + queues.__all__ + streams.__all__ + subprocess.__all__ + tasks.__all__ + threads.__all__ + timeouts.__all__ + transports.__all__) # 若是 win32 平台, 则添加 windows_events 中的 __all__ if sys.platform == 'win32': from .windows_events import * __all__ += windows_events.__all__ # 若是 unix 平台, 则添加 windows_events 中的 __all__ else: from .unix_events import * __all__ += unix_events.__all__
base_events 是在 asyncio 入口文件中第一个被 import 的模块,提供了一些基本的类和设置项,如 BaseEventLoop 以及 Server 等等 ...
base_events 中全局执行的代码不多,以下是其导入的 build-in package:
import collections import collections.abc import concurrent.futures import functools import heapq import itertools import os import socket import stat import subprocess import threading import time import traceback import sys import warnings import weakref try: import ssl except ImportError: # pragma: no cover ssl = None
自定义的 package:
from . import constants from . import coroutines from . import events from . import exceptions from . import futures from . import protocols from . import sslproto from . import staggered from . import tasks from . import transports from . import trsock from .log import logger
关注几个有用的信息点:
# 该模块只允许通过 * 导入 BaseEventLoop 以及 Server 类 __all__ = 'BaseEventLoop','Server', # 定义异步事件循环中允许的最小计划定时器句柄数 # loop.call_later() 以及 loop.call_at() 都是在创建定时器句柄 # 当计划定时器句柄的数量低于该值,事件循环可能会采取一些优化措施 # 例如减少时间片的分配或合并定时器句柄,以提高性能和效率 _MIN_SCHEDULED_TIMER_HANDLES = 100 # 定义了被取消的定时器句柄数量与总计划定时器句柄数量之间的最小比例 # 如果取消的定时器句柄数量超过了计划定时器句柄数量的这个比例 # 事件循环可能会采取一些优化措施,例如重新分配或重新排序定时器句柄列表,以提高性能和效率 _MIN_CANCELLED_TIMER_HANDLES_FRACTION = 0.5 # 一个布尔值, 用来判断当前 socket 是否支持 IPV6 _HAS_IPv6 = hasattr(socket, 'AF_INET6') # 事件循环 SELECT 时的等待事件 MAXIMUM_SELECT_TIMEOUT = 24 * 3600
除此之外,还有关于 socket 部分的:
# 当前的 socket 模块是否具有非延迟特性 if hasattr(socket, 'TCP_NODELAY'): def _set_nodelay(sock): if (sock.family in {socket.AF_INET, socket.AF_INET6} and sock.type == socket.SOCK_STREAM and sock.proto == socket.IPPROTO_TCP): # 启用 tcp 协议非延迟特性,即禁用 Nagle 算法 sock.setsockopt(socket.IPPROTO_TCP, socket.TCP_NODELAY, 1) else: def _set_nodelay(sock): pass
constants 是在 base_events 中第一个被 import 的。其作用是定义一些通过 asyncio 进行网络编程时的常量数据。
它的源码虽然简单但涉及知识面较广,基本是与网络编程相关的,若想深入研究还需下一阵苦功夫:
import enum # 在使用 asyncio 进行网络编程时 # 写入操作多次失败(如链接丢失的情况下)记录一条 warning 日志 LOG_THRESHOLD_FOR_CONNLOST_WRITES = 5 # 在使用 asyncio 进行网络编程时 # 若对方断联、则在重试 accept 之前等待的秒数 # 参见 selector_events._accept_connection() 具体实现 ACCEPT_RETRY_DELAY = 1 # 在 asyncio debug 模式下需捕获的堆栈条目数量(数量越大,运行越慢) # 旨在方便的为开发人员追踪问题,例如找出事件循环中的协程或回调的调用路径 DEBUG_STACK_DEPTH = 10 # 在使用 asyncio 进行网络编程时 # SSL/TSL 加密通信握手时可能会产生断联或失败 # 而该常量是指等待 SSL 握手完成的秒数,他和 Nginx 的 timeout 匹配 SSL_HANDSHAKE_TIMEOUT = 60.0 # 在使用 asyncio 进行网络编程时 # 等待 SSL 关闭完成的秒数 # 如 asyncio.start_server() 方法以及 asyncio.start_tls() 方法 # 在链接关闭后,会使用 n 秒来进行确认对方已经成功关闭了链接 # 若在 n 秒内未得到确认,则引发 TimeoutError SSL_SHUTDOWN_TIMEOUT = 30.0 # 在使用 loop.sendfile() 方法传输文件时 # 后备缓冲区的大小(有些文件系统不支持零拷贝,因此需要一个缓冲区) SENDFILE_FALLBACK_READBUFFER_SIZE = 1024 * 256 # 当在 SSL/TSL 握手期间,若 read 的内核缓冲区数据大小 # 超过了下面设定的值,则会等待其内核缓冲区大小降低后 # 再次进行 read FLOW_CONTROL_HIGH_WATER_SSL_READ = 256 # KiB # 同上,只不过这个是写入的上限流量阈值 FLOW_CONTROL_HIGH_WATER_SSL_WRITE = 512 # KiB class _SendfileMode(enum.Enum): UNSUPPORTED = enum.auto() TRY_NATIVE = enum.auto() FALLBACK = enum.auto()
coroutines 是在 base_events 中第二个被 import 的。其作用是提供一些布尔的判定接口,如判断对象是否是 coroutine、当前是否是 debug 模式等等。
其全局代码不多,暂可不必太过关注:
# 该模块只允许通过 * 导入 iscoroutinefunction 以及 iscoroutine 函数 __all__ = 'iscoroutinefunction', 'iscoroutine' # ... _is_coroutine = object() # 优先检查原生协程以加快速度 # asyncio.iscoroutine _COROUTINE_TYPES = (types.CoroutineType, types.GeneratorType, collections.abc.Coroutine) _iscoroutine_typecache = set()
events 是在 base_events 中第三个被 import 的。其作为是定义一些与事件循环相关的高级接口或定义一些事件循环的抽象基类供内部或开发者使用。
注意他在这里还 import 了自定义模块 format_helpers,但是 format_helpers 中并未有任何运行的全局代码,所以后面直接略过了:
from . import format_helpers
以下是它的全局代码:
# __all__ 中难免会看到一些熟悉的身影 # 比如 get_event_loop get_running_loop 等等 __all__ = ( 'AbstractEventLoopPolicy', 'AbstractEventLoop', 'AbstractServer', 'Handle', 'TimerHandle', 'get_event_loop_policy', 'set_event_loop_policy', 'get_event_loop', 'set_event_loop', 'new_event_loop', 'get_child_watcher', 'set_child_watcher', '_set_running_loop', 'get_running_loop', '_get_running_loop', ) # ... # 该变量有 2 个作用 # 分别是决定如何创建和获取事件循环对象 # - 比如一个线程一个事件循环 # - 或者一个任务一个事件循环 # 再者就是获取事件循环,通过 get_event_loop_policy 方法即可拿到该变量 _event_loop_policy = None # 一把线程锁、用于保护事件循环策略的实例化 _lock = threading.Lock() # ... class _RunningLoop(threading.local): loop_pid = (None, None) # 这个好像是获取以及设置当前的 running loop,由 _get_running_loop 使用。 # 它将 loop 和 pid 进行绑定 _running_loop = _RunningLoop() # 为了一些测试而取的以 _py 开始的别名 _py__get_running_loop = _get_running_loop _py__set_running_loop = _set_running_loop _py_get_running_loop = get_running_loop _py_get_event_loop = get_event_loop _py__get_event_loop = _get_event_loop try: # 纯注释翻译: # get_event_loop() 是最常调用的方法之一 # 异步函数。纯 Python 实现是 # 大约比 C 加速慢 4 倍。 # PS: C 语言的部分就先暂时不看了 from _asyncio import (_get_running_loop, _set_running_loop, get_running_loop, get_event_loop, _get_event_loop) except ImportError: pass else: # 为了一些测试而取的以 _c 开始的别名 _c__get_running_loop = _get_running_loop _c__set_running_loop = _set_running_loop _c_get_running_loop = get_running_loop _c_get_event_loop = get_event_loop _c__get_event_loop = _get_event_loop
exceptions 是在 base_events 中第四个被 import 的。其主要作用是定义了一些异常类:
__all__ = ('BrokenBarrierError', 'CancelledError', 'InvalidStateError', 'TimeoutError', 'IncompleteReadError', 'LimitOverrunError', 'SendfileNotAvailableError')
有些异常类中实现了 __reduce__() 方法。该方法允许自定义对象在被序列化或持久化过程中的状态和重建方式。
示例:
import pickle from typing import Any def ser_fn(name): return name class Example: def __init__(self, name) -> None: self.name = name def __reduce__(self) -> str | tuple[Any, ...]: """ 反序列化时,将调用 ser_fn 并且传入参数 下面注释的第一个例子是重新实例化一下 第二个例子是更直观的演示该方法的作用 """ # return (__class__, (self.name, )) return (ser_fn, ("反序列化结果", )) if __name__ == "__main__": obj = Example("instance") serializer = pickle.dumps(obj) deserializer = pickle.loads(serializer) print(deserializer) # 反序列化结果
futures 是在 base_events 中第五个被 import 的。其作用是定义了 asyncio 中未来对象的实现方式。
在看其全局代码之前,首先推荐阅读官方文档:
asyncio futures 介绍
该 futures 和 collections 的 futures 有些许区别,futures 也算是 Python 异步编程中比较难以理解的一个点,后续有机会再和大家详细探讨。
futures 文件中导入了 base_futures 自定义模块,但 base_futures 中暂时没有值得关注的点,所以先在此略过:
from . import base_futures # 下面 3 个都已经粗略看过一次 from . import events from . import exceptions from . import format_helpers
其全局代码如下:
# 一个函数,用于判断对象是否是一个未来对象 isfuture = base_futures.isfuture # 用于表明未来对象的当前一些状态的标志 # 分别是 等待执行、取消执行、完成执行 _PENDING = base_futures._PENDING _CANCELLED = base_futures._CANCELLED _FINISHED = base_futures._FINISHED # 栈的调试 LOG 级别 STACK_DEBUG = logging.DEBUG - 1 # heavy-duty debugging # ... class Future: pass _PyFuture = Future # ... try: import _asyncio except ImportError: pass else: Future = _CFuture = _asyncio.Future
protocols 是在 base_events 中第六个被 import 的。其作用主要是定义一些内部协议。
如 '缓冲区控制流协议'、'接口数据报协议'、'子进程调用接口协议' 等等。
暂先关注其 __all__ 即可:
__all__ = ( 'BaseProtocol', 'Protocol', 'DatagramProtocol', 'SubprocessProtocol', 'BufferedProtocol', )
sslproto 是在 base_events 中第七个被 import 的。其作用是定义和具体实现 SSL/TLS 协议。
同默认的 socket 模块不同,asyncio 所提供的流式传输是已经实现好了 SSL/TLS 协议功能的。
下面先对 SSL/TLS 做一个简短的介绍。
SSL/TLS 是一个独立的协议,其功能主要用于网络通信的加密和安全,如数据加密、身份认证等等。
TLS 的前身为 SSL 协议,是 SSL 的现代版和改进版。
在 sslproto 中也导入了一些标准库以及自定义的模块:
import collections import enum import warnings try: import ssl except ImportError: # pragma: no cover ssl = None # 自定义模块 from . import constants from . import exceptions from . import protocols # 下面 2 个还没看过,transports 可以大概瞅瞅,但 log 没必要看 # 他本质就是使用 logging 模块获得一个 log 对象 # 名字就是当前的 package name,即为 asyncio from . import transports from .log import logger
其全局代码如下:
# ... if ssl is not None: SSLAgainErrors = (ssl.SSLWantReadError, ssl.SSLSyscallError)
除此之外,它还定义了一些类,如 'SSL 协议'、'应用协议状态' 等等,这里不做细述。
transports 在 sslproto 文件中被导入,主要定义一些传输类。
如 '读传输'、'写传输'、'数据报传输'、'子进程接口传输' 等等,和 protocols 中的协议类关系较为密切。
一般来说若要基于 asyncio 进行二次开发,如开发 http 协议的 web 服务程序等等,才会关注到这里。
其下很多代码看不到具体实现,直接看其 __all__ 变量吧:
__all__ = ( 'BaseTransport', 'ReadTransport', 'WriteTransport', 'Transport', 'DatagramTransport', 'SubprocessTransport', )
staggered 是在 base_events 中第八个被 import 的。其作用是如何支持正在运行的协程在时间点中错开(主要针对 socket 网络编程)。
他实现了一个协程函数 staggered_race 以及导入了一些内部或自定义模块:
__all__ = 'staggered_race', import contextlib import typing from . import events from . import exceptions as exceptions_mod from . import locks from . import tasks async def staggered_race(...): pass
locks 在 staggered 中被导入,其作用是实现了一些协程锁。
官方文档:协程同步
具体有 '同步锁'、'事件锁'、'条件锁'、'信号量锁'、'有界信号量锁'、'屏障锁'。相比于 threading 少了 '递归锁' 和一些其他的锁。
__all__ = ('Lock', 'Event', 'Condition', 'Semaphore', 'BoundedSemaphore', 'Barrier')
mixins 在 locks 中被导入,其作用是提供一些工具集功能。
代码量较少:
import threading from . import events # 实现一把全局的线程同步锁 _global_lock = threading.Lock() class _LoopBoundMixin: _loop = None def _get_loop(self): loop = events._get_running_loop() if self._loop is None: with _global_lock: if self._loop is None: self._loop = loop if loop is not self._loop: raise RuntimeError(f'{self!r} is bound to a different event loop') return loop
tasks 在 locks 中被导入,其作用是定义 Task 对象、提供一些管理 Task 对象的高级接口。
# 有很多熟悉的高级接口,均来自于 tasks 模块 __all__ = ( 'Task', 'create_task', 'FIRST_COMPLETED', 'FIRST_EXCEPTION', 'ALL_COMPLETED', 'wait', 'wait_for', 'as_completed', 'sleep', 'gather', 'shield', 'ensure_future', 'run_coroutine_threadsafe', 'current_task', 'all_tasks', '_register_task', '_unregister_task', '_enter_task', '_leave_task', )
下面是它导入的内置模块和第三方模块:
import concurrent.futures import contextvars import functools import inspect import itertools import types import warnings import weakref from types import GenericAlias # 除了 base_tasks 其他都已经全部 load 掉了 from . import base_tasks from . import coroutines from . import events from . import exceptions from . import futures from .coroutines import _is_coroutine
其全局代码有:
# 生成新的 task 时的命名计数器 # 这里不采用 +=1 的操作是因为协程并非线程安全 # 通过迭代器不断的向后计数,可以完美的保证线程安全(Ps: GET 新技能) _task_name_counter = itertools.count(1).__next__ # ... _PyTask = Task FIRST_COMPLETED = concurrent.futures.FIRST_COMPLETED FIRST_EXCEPTION = concurrent.futures.FIRST_EXCEPTION ALL_COMPLETED = concurrent.futures.ALL_COMPLETED # 包含所有正在活动的任务 _all_tasks = weakref.WeakSet() # 一个字典,包含当前正在活动的任务 {loop: task} _current_tasks = {} # ... _py_register_task = _register_task _py_unregister_task = _unregister_task _py_enter_task = _enter_task _py_leave_task = _leave_task try: from _asyncio import (_register_task, _unregister_task, _enter_task, _leave_task, _all_tasks, _current_tasks) except ImportError: pass else: _c_register_task = _register_task _c_unregister_task = _unregister_task _c_enter_task = _enter_task _c_leave_task = _leave_task
trsock 是在 base_events 中第九个被 import 的。其作用是实现了一个 '传输套接字' 的类。
具体是对模块内的,暂不深究。
runners 是在 asyncio 入口文件中第八个被 import 的。其作用为定义 asyncio 的入口方法 run 以及定义管理事件循环声明周期类的 'Runner'。
__all__ = ('Runner', 'run')
Runner 功能为 Python 3.11 新功能。
queues 是在 asyncio 入口文件中第九个被 import 的。其作用是定义一些用于协程信息同步的队列。
__all__ = ('Queue', 'PriorityQueue', 'LifoQueue', 'QueueFull', 'QueueEmpty')
streams 是在 asyncio 入口文件中第十个被 import 的。其作用是定义流式传输相关的具体实现类,如 '可读流'、'可写流' 等等。
__all__ = ( 'StreamReader', 'StreamWriter', 'StreamReaderProtocol', 'open_connection', 'start_server')
如果是在 Unix 平台下,则 __all__ 会新增一些内容:
if hasattr(socket, 'AF_UNIX'): __all__ += ('open_unix_connection', 'start_unix_server') # 读写流操作的缓冲区大小为 64kb _DEFAULT_LIMIT = 2 ** 16
该文件与 transports 关系较为密切。
subprocess 是在 asyncio 入口文件中第十一个被 import 的。其作用是定义子进程通信相关的类,如 'SubprocessProtocol' 和 'Protocol' 等等。
__all__ = 'create_subprocess_exec', 'create_subprocess_shell' # ... PIPE = subprocess.PIPE STDOUT = subprocess.STDOUT DEVNULL = subprocess.DEVNULL
taskgroups 是在 asyncio 入口文件中中第十二个被 import 的。其作用是定义了任务组。
__all__ = ["TaskGroup"]
此功能为 Python 3.11 新功能。
timeouts 是在 asyncio 入口文件中中第十三个被 import 的。其作用是定义了超时相关的类和函数。
__all__ = ( "Timeout", "timeout", "timeout_at", ) class _State(enum.Enum): CREATED = "created" ENTERED = "active" EXPIRING = "expiring" EXPIRED = "expired" EXITED = "finished"
threads 是在 asyncio 入口文件中第十四个被 import 的。其作用是定义了函数 to_thread。
__all__ = "to_thread", async def to_thread(func, /, *args, **kwargs): pass
整个 asyncio 模块的初始化模块导入关系图如下:
asyncio.run() 作为目前 Python 较为推崇的协程起始方式。研究其内部启动顺序及执行顺序是十分有必要的。
在 Python 3.11 版本后 asyncio 新增了多种协程起始方式,但 asyncio.run 的地位依旧不容置疑。
如果后续有机会,我们可以再继续探讨研究 Python 3.7 之前的协程起始方式。
asyncio.run() 位于 asyncio.runners 文件中,其函数签名如下:
def run(main, *, debug=None): pass
如同官方文档所说,该方法如果在没有 Runner 参与的情况下,应当只调用一次。
在 Python 3.11 版本后,新加入的 Runner 类使其源码发生了一定的变化,但其内部逻辑总是万变不离其宗的。
def run(main, *, debug=None): # 若当前的线程已经存在一个正在运行的事件循环、则抛出异常 if events._get_running_loop() is not None: raise RuntimeError( "asyncio.run() cannot be called from a running event loop") with Runner(debug=debug) as runner: return runner.run(main)
源码如下:
# ... class _RunningLoop(threading.local): loop_pid = (None, None) # ... _running_loop = _RunningLoop() # ... def _get_running_loop(): running_loop, pid = _running_loop.loop_pid # 这里条件不满足,所以返回的必然是 None if running_loop is not None and pid == os.getpid(): return running_loop
对于了解过 threading.local 源代码的同学这里应该比较好理解。
Ps: threading.local 所实现的功能是让每一个线程能够存储自己独有的数据,其原理
大致是维护一个 global dict,其结构为 {"threading_ident": "data"}
继续回到 asyncio.run() 函数中,可以发现它 with 了 Runner 类:
def run(main, *, debug=None): # ... with Runner(debug=debug) as runner: return runner.run(main)
先看 Runner 的 __init__() 方法,再看其 __enter__ 方法。
class _State(enum.Enum): CREATED = "created" INITIALIZED = "initialized" CLOSED = "closed" class Runner: def __init__(self, *, debug=None, loop_factory=None): self._state = _State.CREATED self._debug = debug self._loop_factory = loop_factory self._loop = None self._context = None self._interrupt_count = 0 self._set_event_loop = False def __enter__(self): self._lazy_init() return self def _lazy_init(self): # 如果是关闭状态,则抛出异常 if self._state is _State.CLOSED: raise RuntimeError("Runner is closed") # 如果是初始化状态,则返回 if self._state is _State.INITIALIZED: return # 如果 loop 工厂函数是 None if self._loop_factory is None: # 创建一个新的 loop self._loop = events.new_event_loop() if not self._set_event_loop: events.set_event_loop(self._loop) self._set_event_loop = True else: self._loop = self._loop_factory() if self._debug is not None: self._loop.set_debug(self._debug) self._context = contextvars.copy_context() self._state = _State.INITIALIZED
events.new_event_loop 的源码如下,他通过拿到当前事件循环策略来得到一个新的事件循环:
# ... _event_loop_policy = None _lock = threading.Lock() # ... def new_event_loop(): return get_event_loop_policy().new_event_loop() # ... def get_event_loop_policy(): if _event_loop_policy is None: _init_event_loop_policy() return _event_loop_policy # ... def _init_event_loop_policy(): global _event_loop_policy # 思考点: # 这里为何要加线程锁? # 是为了避免多线程多事件循环状态下 _event_loop_policy 的 # 数据同步问题吗?防止同时多次运行 DefaultEventLoopPolicy 实例化吗? with _lock: if _event_loop_policy is None: from . import DefaultEventLoopPolicy _event_loop_policy = DefaultEventLoopPolicy()
接下来我们要继续看 DefaultEventLoopPolicy 的代码实现,它位于 unix_events 文件中。
class BaseDefaultEventLoopPolicy(AbstractEventLoopPolicy): _loop_factory = None class _Local(threading.local): _loop = None _set_called = False def __init__(self): # 2. 为当前线程生成了一个独立的 threading location self._local = self._Local() def new_event_loop(self): # 3. 实例化 _UnixSelectorEventLoop return self._loop_factory() class _UnixDefaultEventLoopPolicy(events.BaseDefaultEventLoopPolicy): _loop_factory = _UnixSelectorEventLoop # 1. 初始化类 def __init__(self): super().__init__() self._watcher = None DefaultEventLoopPolicy = _UnixDefaultEventLoopPolicy
继续看 _UnixSelectorEventLoop 的实例化过程:
# ---- coroutines ---- def _is_debug_mode(): return sys.flags.dev_mode or (not sys.flags.ignore_environment and bool(os.environ.get('PYTHONASYNCIODEBUG'))) # ---- base_events ---- class BaseEventLoop(events.AbstractEventLoop): def __init__(self): # 3. 实例化对象字典填充 self._timer_cancelled_count = 0 self._closed = False self._stopping = False # deque 双端队列 self._ready = collections.deque() self._scheduled = [] # 默认执行器 self._default_executor = None self._internal_fds = 0 self._thread_id = None # 1e-09 self._clock_resolution = time.get_clock_info('monotonic').resolution # 默认异常处理程序 self._exception_handler = None self.set_debug(coroutines._is_debug_mode()) self.slow_callback_duration = 0.1 self._current_handle = None self._task_factory = None self._coroutine_origin_tracking_enabled = False self._coroutine_origin_tracking_saved_depth = None self._asyncgens = weakref.WeakSet() self._asyncgens_shutdown_called = False self._executor_shutdown_called = False # ---- selector_events ---- class BaseSelectorEventLoop(base_events.BaseEventLoop): def __init__(self, selector=None): # 2. 继续调用父类 __init__ 方法,填充实例化对象的 __dict__ 字典 super().__init__() # 3. 判断 selector 是否为 None if selector is None: # 得到一个默认的 io 复用选择器 # select poll epoll selector = selectors.DefaultSelector() logger.debug('Using selector: %s', selector.__class__.__name__) self._selector = selector # 4. 调用 _make_self_pipe 方法 self._make_self_pipe() # 10. 通过 weakref 创建出 1 个弱引用映射类 self._transports = weakref.WeakValueDictionary() def _make_self_pipe(self): # 5. 创建 1 个非阻塞的 socket 对象 self._ssock, self._csock = socket.socketpair() self._ssock.setblocking(False) self._csock.setblocking(False) self._internal_fds += 1 # 6. 调用 address,传入当前 sock 对象的文件描述符 self._add_reader(self._ssock.fileno(), self._read_from_self) def _add_reader(self, fd, callback, *args): # 7. 检查当前类是否是关闭状态 self._check_closed() # 9. 实例化注册一个 handle,注意这里的 callback 是 # self._read_from_self, args 为 () handle = events.Handle(callback, args, self, None) try: # 第一次运行这里会报错,返回当前文件对象注册的 SelectorKey key = self._selector.get_key(fd) except KeyError: # 若报错则注册一个读事件,将 handle 放入 self._selector.register(fd, selectors.EVENT_READ, (handle, None)) else: # 如果是第二次运行这个方法,则拿到 event # 疑问点(register 时放入的是 handle 和 None) # 为何出来就成了可读流和可写流?其实是事件循环开启后的一系列处理 # 可参照 事件循环的 sele._selector.select 以及 BaseSelectorEventLoop._process_events() 方法 # 结果中的 reader 表示可读流的事件处理器对象,而 writer 为 None mask, (reader, writer) = key.events, key.data # 修改 fd 的注册事件 # select 中 1 是读事件,2 是写事件。按位或后的结果总是较大值 # 或两者的和 self._selector.modify(fd, mask | selectors.EVENT_READ, (handle, writer)) # 如果没有可读流,则关闭,说明 except 那里没有注册好 handle 或者被 unregister 掉了 if reader is not None: reader.cancel() return handle def _check_closed(self): # 8. 若是关闭状态则直接抛出异常 if self._closed: raise RuntimeError('Event loop is closed') # ---- unix_events ---- class _UnixSelectorEventLoop(selector_events.BaseSelectorEventLoop): def __init__(self, selector=None): # 1. 调用父类进行实例化数据填充,构建 __dict__ 字典 super().__init__(selector) self._signal_handlers = {}
events.Handle 类的源码如下,这个 Handle 类是 asyncio 中各类任务的上层封装,十分重要:
# handle = events.Handle(callback, args, self, None) # callback = BaseSelectorEventLoop._read_from_self # self = _UnixSelectorEventLoop instance class Handle: __slots__ = ('_callback', '_args', '_cancelled', '_loop', '_source_traceback', '_repr', '__weakref__', '_context') def __init__(self, callback, args, loop, context=None): # 若当前上下文为空,则 copy 当前上下文 if context is None: context = contextvars.copy_context() self._context = context # loop 就是 _UnixSelectorEventLoop 的实例化对象 self._loop = loop self._callback = callback # () self._args = args self._cancelled = False self._repr = None # 先不看 debug 模式 if self._loop.get_debug(): self._source_traceback = format_helpers.extract_stack( sys._getframe(1)) else: self._source_traceback = None
至此,_loop_factory 已经全部走完了。实际上也没干太特别的事情,就创建了一个 DefaultSelector 以及实例化了一个 socket 对象并注册进了 DefaultSelector 中。
我们要接着看 Runner:
class _State(enum.Enum): CREATED = "created" INITIALIZED = "initialized" CLOSED = "closed" class Runner: def __init__(self, *, debug=None, loop_factory=None): self._state = _State.CREATED self._debug = debug self._loop_factory = loop_factory self._loop = None self._context = None self._interrupt_count = 0 self._set_event_loop = False def __enter__(self): self._lazy_init() return self def _lazy_init(self): # 如果是关闭状态,则抛出异常 if self._state is _State.CLOSED: raise RuntimeError("Runner is closed") # 如果是初始化状态,则返回 if self._state is _State.INITIALIZED: return # 如果 loop 工厂函数是 None if self._loop_factory is None: # 创建一个新的 loop,这里的返回对象就是 _UnixSelectorEventLoop 的实例化对象 self._loop = events.new_event_loop() if not self._set_event_loop: events.set_event_loop(self._loop) self._set_event_loop = True else: self._loop = self._loop_factory() if self._debug is not None: self._loop.set_debug(self._debug) self._context = contextvars.copy_context() self._state = _State.INITIALIZED
events.set_event_loop 源码:
def get_event_loop_policy(): if _event_loop_policy is None: _init_event_loop_policy() # 1. 应该走这里,实际上 _event_loop_policy 就是 _UnixDefaultEventLoopPolicy 的实例对象 return _event_loop_policy def set_event_loop(loop): # 2. 运行 _UnixDefaultEventLoopPolicy 实例对象的 set_event_loop get_event_loop_policy().set_event_loop(loop)
_UnixDefaultEventLoopPolicy 的 set_event_loop 方法:
# ---- events ---- class BaseDefaultEventLoopPolicy(AbstractEventLoopPolicy): _loop_factory = None class _Local(threading.local): _loop = None _set_called = False def __init__(self): self._local = self._Local() def set_event_loop(self, loop): # 2. 通过 threading lock 设置标志位置 self._local._set_called = True if loop is not None and not isinstance(loop, AbstractEventLoop): raise TypeError(f"loop must be an instance of AbstractEventLoop or None, not '{type(loop).__name__}'") self._local._loop = loop # ---- unix_events ---- class _UnixDefaultEventLoopPolicy(events.BaseDefaultEventLoopPolicy): _loop_factory = _UnixSelectorEventLoop # ... def set_event_loop(self, loop): # 这个 loop 是 _UnixSelectorEventLoop 的实例化对象 # 1. super 父类的同名方法 super().set_event_loop(loop) # 3. 实例化的时候这里是 None, 不会运行下面的条件 if (self._watcher is not None and threading.current_thread() is threading.main_thread()): self._watcher.attach_loop(loop)
至此 Runner._lazy_init 应该全部走完了:
class _State(enum.Enum): CREATED = "created" INITIALIZED = "initialized" CLOSED = "closed" class Runner: def __init__(self, *, debug=None, loop_factory=None): self._state = _State.CREATED self._debug = debug self._loop_factory = loop_factory self._loop = None self._context = None self._interrupt_count = 0 self._set_event_loop = False def __enter__(self): self._lazy_init() return self def _lazy_init(self): # 如果是关闭状态,则抛出异常 if self._state is _State.CLOSED: raise RuntimeError("Runner is closed") # 如果是初始化状态,则返回 if self._state is _State.INITIALIZED: return # 如果 loop 工厂函数是 None if self._loop_factory is None: # 创建一个新的 loop,这里的返回对象就是 _UnixSelectorEventLoop 的实例化对象 self._loop = events.new_event_loop() # 设置新的标志位,代表事件循环已经初始化成功 if not self._set_event_loop: events.set_event_loop(self._loop) self._set_event_loop = True # 不会走这里 else: self._loop = self._loop_factory() if self._debug is not None: self._loop.set_debug(self._debug) # copy 当前上下文 self._context = contextvars.copy_context() # 修改状态 self._state = _State.INITIALIZED
注意,此时事件循环已经初始化完成了,但还没有正式启动。
以下是事件循环的初始化流程图:
在上面我们大概看了一下事件循环的初始化。接下来应该走到 runner.run() 方法中看他如何运行事件循环。
def run(main, *, debug=None): # ... with Runner(debug=debug) as runner: return runner.run(main)
源代码如下:
class _RunningLoop(threading.local): loop_pid = (None, None) # ... _running_loop = _RunningLoop() # ... def _get_running_loop(): running_loop, pid = _running_loop.loop_pid if running_loop is not None and pid == os.getpid(): return running_loop # ------------- class Runner: def __init__(self, *, debug=None, loop_factory=None): self._state = _State.CREATED # INITIALIZED self._debug = debug self._loop_factory = loop_factory # _UnixSelectorEventLoop 实例对象 self._loop = None self._context = None # dict self._interrupt_count = 0 self._set_event_loop = False # True def _lazy_init(self): if self._state is _State.CLOSED: raise RuntimeError("Runner is closed") # 2. 直接返回 if self._state is _State.INITIALIZED: return # ... def run(self, coro, *, context=None): # 若不是一个协程函数,则抛出异常 if not coroutines.iscoroutine(coro): raise ValueError("a coroutine was expected, got {!r}".format(coro)) # 若 event loop 已经运行了,则抛出异常 # 这里还没有运行 if events._get_running_loop() is not None: raise RuntimeError( "Runner.run() cannot be called from a running event loop") # 1. 运行 _lazy_init self._lazy_init() # 3. 不是 None if context is None: context = self._context # 4. 创建协程并发任务 task = self._loop.create_task(coro, context=context) # .. 后面再看 if (threading.current_thread() is threading.main_thread() and signal.getsignal(signal.SIGINT) is signal.default_int_handler ): sigint_handler = functools.partial(self._on_sigint, main_task=task) try: signal.signal(signal.SIGINT, sigint_handler) except ValueError: sigint_handler = None else: sigint_handler = None self._interrupt_count = 0 try: return self._loop.run_until_complete(task) except exceptions.CancelledError: if self._interrupt_count > 0: uncancel = getattr(task, "uncancel", None) if uncancel is not None and uncancel() == 0: raise KeyboardInterrupt() raise # CancelledError finally: if (sigint_handler is not None and signal.getsignal(signal.SIGINT) is sigint_handler ): signal.signal(signal.SIGINT, signal.default_int_handler)
_UnixSelectorEventLoop 和其父类 BaseSelectorEventLoop 本身没有实现 create_task() 方法,是在其超类 BaseEventLoop 所实现。
BaseEventLoop.create_task() 实际上就是 asyncio.create_task() 方法的底层。
class BaseEventLoop(events.AbstractEventLoop): def __init__(self): self._timer_cancelled_count = 0 self._closed = False self._stopping = False self._ready = collections.deque() self._scheduled = [] self._default_executor = None self._internal_fds = 0 self._thread_id = None self._clock_resolution = time.get_clock_info('monotonic').resolution self._exception_handler = None self.set_debug(coroutines._is_debug_mode()) self.slow_callback_duration = 0.1 self._current_handle = None self._task_factory = None self._coroutine_origin_tracking_enabled = False self._coroutine_origin_tracking_saved_depth = None self._asyncgens = weakref.WeakSet() self._asyncgens_shutdown_called = False self._executor_shutdown_called = False def create_task(self, coro, *, name=None, context=None): """Schedule a coroutine object. Return a task object. """ # 先检查是否关闭,返回的结果必定是 False self._check_closed() # 任务工厂为 None if self._task_factory is None: task = tasks.Task(coro, loop=self, name=name, context=context) if task._source_traceback: del task._source_traceback[-1] # 若通过 asyncio.get_running_loop().set_task_factory() 设置了任务工厂函数的话 # 那么就运行 else 的代码块 else: if context is None: # Use legacy API if context is not needed task = self._task_factory(self, coro) else: task = self._task_factory(self, coro, context=context) tasks._set_task_name(task, name) return task def _check_closed(self): # 若是关闭状态则直接抛出异常 if self._closed: raise RuntimeError('Event loop is closed') def set_task_factory(self, factory): if factory is not None and not callable(factory): raise TypeError('task factory must be a callable or None') self._task_factory = factory
tasks.Task 的源码如下:
# ----- futures ----- class Future: _state = _PENDING _result = None _exception = None _loop = None _source_traceback = None _cancel_message = None _cancelled_exc = None _asyncio_future_blocking = False __log_traceback = False def __init__(self, *, loop=None): # 2. loop 传入的不是 None、所以这里直接走 else if loop is None: self._loop = events._get_event_loop() else: self._loop = loop self._callbacks = [] if self._loop.get_debug(): self._source_traceback = format_helpers.extract_stack( sys._getframe(1)) # ... _PyFuture = Future # ----- tasks ----- _task_name_counter = itertools.count(1).__next__ # ... class Task(futures._PyFuture): _log_destroy_pending = True def __init__(self, coro, *, loop=None, name=None, context=None): # 1. 运行 super 也就是 Future 的 __init__ 方法 super().__init__(loop=loop) if self._source_traceback: del self._source_traceback[-1] # 若不是一个 coroutine 则抛出异常 if not coroutines.iscoroutine(coro): self._log_destroy_pending = False raise TypeError(f"a coroutine was expected, got {coro!r}") # 若没有指定 name 则生成一个 name if name is None: self._name = f'Task-{_task_name_counter()}' else: self._name = str(name) self._num_cancels_requested = 0 self._must_cancel = False self._fut_waiter = None self._coro = coro if context is None: self._context = contextvars.copy_context() else: self._context = context # 运行 _UnixSelectorEventLoop 的 call_soon 方法 self._loop.call_soon(self.__step, context=self._context) _register_task(self)
_UnixSelectorEventLoop 未实现 call_soon() 方法,而是在其超类 BaseEventLoop 中实现:
class BaseEventLoop(events.AbstractEventLoop): def __init__(self): # ... # deque 双端队列 self._ready = collections.deque() def _call_soon(self, callback, args, context): # handle 的源码可参照上面初始化 event loop 时的操作 handle = events.Handle(callback, args, self, context) if handle._source_traceback: del handle._source_traceback[-1] # 将 handle 放入 _ready 中 self._ready.append(handle) return handle def call_soon(self, callback, *args, context=None): # callback: Task.__step 方法 # args: () # context: dict self._check_closed() # 不走 debug,没必要细看 if self._debug: self._check_thread() self._check_callback(callback, 'call_soon') handle = self._call_soon(callback, args, context) if handle._source_traceback: del handle._source_traceback[-1] return handle
在 loop.call_soon() 执行执行完毕后,Task 的 __init__() 方法最后会运行 _register_task() 方法。
# 包含所有活动任务的 WeakSet。 _all_tasks = weakref.WeakSet() def _register_task(task): """在 asyncio 中注册一个由循环执行的新任务。""" _all_tasks.add(task)
现在,让我们继续回到 runner.run() 方法中。
class Runner: def __init__(self, *, debug=None, loop_factory=None): self._state = _State.CREATED # INITIALIZED self._debug = debug self._loop_factory = loop_factory # _UnixSelectorEventLoop 实例对象 self._loop = None self._context = None # dict self._interrupt_count = 0 self._set_event_loop = False # True def run(self, coro, *, context=None): if not coroutines.iscoroutine(coro): raise ValueError("a coroutine was expected, got {!r}".format(coro)) if events._get_running_loop() is not None: raise RuntimeError( "Runner.run() cannot be called from a running event loop") self._lazy_init() if context is None: context = self._context task = self._loop.create_task(coro, context=context) # 如果当前线程是主线程并且当前使用了 SIGNAL 的默认处理程序结果是 True # 这里是 ctrl + c 终止程序的信号 if (threading.current_thread() is threading.main_thread() and signal.getsignal(signal.SIGINT) is signal.default_int_handler ): # 则信号处理程序设置为 self._on_sigint 程序, 并将主任务传递进去 sigint_handler = functools.partial(self._on_sigint, main_task=task) # 尝试设置当前的信号处理程序 try: signal.signal(signal.SIGINT, sigint_handler) except ValueError: sigint_handler = None else: sigint_handler = None self._interrupt_count = 0 try: # 核心代码 return self._loop.run_until_complete(task) except exceptions.CancelledError: # 异常处理逻辑 uncancel = getattr(task, "uncancel", None) if uncancel is not None and uncancel() == 0: raise KeyboardInterrupt() raise # CancelledError finally: # 解绑 ctrl+c 的信号处理 if (sigint_handler is not None and signal.getsignal(signal.SIGINT) is sigint_handler ): signal.signal(signal.SIGINT, signal.default_int_handler) def _on_sigint(self, signum, frame, main_task): # 主线程里 +1 self._interrupt_count += 1 if self._interrupt_count == 1 and not main_task.done(): # 取消主任务 main_task.cancel() self._loop.call_soon_threadsafe(lambda: None) return raise KeyboardInterrupt()
_UnixSelectorEventLoop 并未实现 run_until_complete() 方法。而是由其超类 BaseEventLoop 所实现。
BaseEventLoop.run_until_complete() 源码如下:
class BaseEventLoop(events.AbstractEventLoop): def __init__(self): self._timer_cancelled_count = 0 self._closed = False self._stopping = False self._ready = collections.deque() # 应该塞了一个 handle self._scheduled = [] self._default_executor = None self._internal_fds = 0 def _check_closed(self): if self._closed: raise RuntimeError('Event loop is closed') def is_running(self): """Returns True if the event loop is running.""" return (self._thread_id is not None) def _check_running(self): if self.is_running(): raise RuntimeError('This event loop is already running') if events._get_running_loop() is not None: raise RuntimeError( 'Cannot run the event loop while another loop is running') def run_until_complete(self, future): # future 就是 main coroutine 的入口函数的 task # 1. 未关闭 self._check_closed() # 2. self._thread_id 现在是 None,所以这里不会报错 self._check_running() # False new_task = not futures.isfuture(future) # 3. 将 task 传入,返回一个 future 对象 future = tasks.ensure_future(future, loop=self) if new_task: future._log_destroy_pending = False # 5. 给 main coroutine 的入口函数的 task 添加一个回调函数 future.add_done_callback(_run_until_complete_cb) try: # 6. 开始运行 self.run_forever() except: if new_task and future.done() and not future.cancelled(): future.exception() raise finally: # 执行完成后,解绑毁回调函数 future.remove_done_callback(_run_until_complete_cb) # 若报错,则代表事件循环关闭了 if not future.done(): raise RuntimeError('Event loop stopped before Future completed.') # 返回未来对象的结果 return future.result() # ---- tasks ---- def ensure_future(coro_or_future, *, loop=None): return _ensure_future(coro_or_future, loop=loop) def _ensure_future(coro_or_future, *, loop=None): # 4. 保证是 future # True if futures.isfuture(coro_or_future): # False if loop is not None and loop is not futures._get_loop(coro_or_future): raise ValueError('The future belongs to a different loop than ' 'the one specified as the loop argument') # 直接 return return coro_or_future # 如果不是一个 coro 或者 future、则进行其他处理 called_wrap_awaitable = False if not coroutines.iscoroutine(coro_or_future): if inspect.isawaitable(coro_or_future): coro_or_future = _wrap_awaitable(coro_or_future) called_wrap_awaitable = True else: raise TypeError('An asyncio.Future, a coroutine or an awaitable ' 'is required') if loop is None: loop = events._get_event_loop(stacklevel=4) try: return loop.create_task(coro_or_future) except RuntimeError: if not called_wrap_awaitable: coro_or_future.close() raise
BaseEventLoop.run_forever() 的源码如下:
class BaseEventLoop(events.AbstractEventLoop): def __init__(self): self._timer_cancelled_count = 0 self._closed = False self._stopping = False self._ready = collections.deque() # 应该塞了一个 handle self._scheduled = [] self._default_executor = None self._internal_fds = 0 self._thread_id = 111 # 当前线程 id def _check_closed(self): if self._closed: raise RuntimeError('Event loop is closed') def is_running(self): """Returns True if the event loop is running.""" return (self._thread_id is not None) def _check_running(self): if self.is_running(): raise RuntimeError('This event loop is already running') if events._get_running_loop() is not None: raise RuntimeError( 'Cannot run the event loop while another loop is running') def run_forever(self): """Run until stop() is called.""" # 1. 未关闭 self._check_closed() # 2. 未运行 self._check_running() # 3. 不重要 self._set_coroutine_origin_tracking(self._debug) # 4. 获取旧的异步生成器钩子 old_agen_hooks = sys.get_asyncgen_hooks() try: # 5. 将当前事件循环的 _thread_id 给赋值 self._thread_id = threading.get_ident() # 6. 设置异步生成器的钩子函数 sys.set_asyncgen_hooks(firstiter=self._asyncgen_firstiter_hook, finalizer=self._asyncgen_finalizer_hook) # 7. 设置正在运行的 loop events._set_running_loop(self) # 8. 调用 _run_once while True: self._run_once() # 9. 如果 _stopping 为 True、则跳出 if self._stopping: break finally: # 恢复标志位、恢复生成器钩子函数 self._stopping = False self._thread_id = None events._set_running_loop(None) self._set_coroutine_origin_tracking(False) sys.set_asyncgen_hooks(*old_agen_hooks) def _asyncgen_firstiter_hook(self, agen): # 在之前调用 if self._asyncgens_shutdown_called: warnings.warn( f"asynchronous generator {agen!r} was scheduled after " f"loop.shutdown_asyncgens() call", ResourceWarning, source=self) self._asyncgens.add(agen) def _asyncgen_finalizer_hook(self, agen): # 在之后调用 self._asyncgens.discard(agen) if not self.is_closed(): self.call_soon_threadsafe(self.create_task, agen.aclose()) # ---- events ---- def _set_running_loop(loop): _running_loop.loop_pid = (loop, os.getpid())
BaseEventLoop._run_once() 方法源码如下:
class BaseEventLoop(events.AbstractEventLoop): def __init__(self): self._timer_cancelled_count = 0 self._closed = False self._stopping = False self._ready = collections.deque() # 应该塞了 1 个 handle self._scheduled = [] self._default_executor = None self._internal_fds = 0 self._thread_id = 111 # 当前线程 id def _run_once(self): sched_count = len(self._scheduled) # 1. 判断当前需要调度的数量,是否大于 _MIN_SCHEDULED_TIMER_HANDLES # 并且已取消的计时器句柄数量除以需要调度的数量大于 _MIN_SCHEDULED_TIMER_HANDLES # 这里的条件肯定是不满足的 if (sched_count > _MIN_SCHEDULED_TIMER_HANDLES and self._timer_cancelled_count / sched_count > _MIN_CANCELLED_TIMER_HANDLES_FRACTION): new_scheduled = [] for handle in self._scheduled: if handle._cancelled: handle._scheduled = False else: new_scheduled.append(handle) heapq.heapify(new_scheduled) self._scheduled = new_scheduled self._timer_cancelled_count = 0 else: # 2. 这里的 while 循环也跑不起来的,因为 self._scheduled 是 [] while self._scheduled and self._scheduled[0]._cancelled: self._timer_cancelled_count -= 1 handle = heapq.heappop(self._scheduled) handle._scheduled = False # 3. timeout 这里应该是满足条件的,置 0 timeout = None if self._ready or self._stopping: timeout = 0 elif self._scheduled: when = self._scheduled[0]._when timeout = min(max(0, when - self.time()), MAXIMUM_SELECT_TIMEOUT) # 4. BaseSelectorEventLoop 子类中有这个 _selector,这里直接开启监听。 # 这里监听的对象只有 1 个 socket 对象,由于没有事件触发,所以这里会直接跳过 event_list = self._selector.select(timeout) # BaseEventLoop._process_events self._process_events(event_list) event_list = None end_time = self.time() + self._clock_resolution # 5. 不会进行循环 while self._scheduled: handle = self._scheduled[0] if handle._when >= end_time: break handle = heapq.heappop(self._scheduled) handle._scheduled = False self._ready.append(handle) # 6. self._ready 的长度应该为 1,里面放了一个 handle ntodo = len(self._ready) for i in range(ntodo): # 弹出第一个 handle,若没取消则运行其 _run 方法 handle = self._ready.popleft() if handle._cancelled: continue # 若开启了调试模式,则还需要记录时间 if self._debug: try: self._current_handle = handle t0 = self.time() handle._run() dt = self.time() - t0 if dt >= self.slow_callback_duration: logger.warning('Executing %s took %.3f seconds', _format_handle(handle), dt) finally: self._current_handle = None else: # 运行其 _run 方法 handle._run() handle = None
handle 对象是用户所创建的任务对象的抽象层。
因为 Task 内部实际上是调用了 loop.call_soon() 方法将 coroutine 放在 Task 对象中,而 Task 对象的 __step() 方法又将作为 callback 封装给 handle. 并 register task 至 _all_tasks 这个 WeakSet 中。
换而言之、事件循环总是通过 _ready 队列拿到不同的 handle,并通过 handle 来执行最初的 coroutine 任务。
以下是 handle._run() 方法的源码:
class Handle: def __init__(self, callback, args, loop, context=None): if context is None: context = contextvars.copy_context() self._context = context # Task 对象创建时的上下文环境 self._loop = loop # 当前的 event loop self._callback = callback # 就是 Task 对象的 __step self._args = args self._cancelled = False self._repr = None if self._loop.get_debug(): self._source_traceback = format_helpers.extract_stack( sys._getframe(1)) else: self._source_traceback = None def cancel(self): if not self._cancelled: self._cancelled = True if self._loop.get_debug(): self._repr = repr(self) self._callback = None self._args = None def cancelled(self): return self._cancelled def _run(self): try: # 运行 Task 对象的 __step 方法 self._context.run(self._callback, *self._args) # 若有异常,则交由默认的异常处理函数进行处理 except (SystemExit, KeyboardInterrupt): raise except BaseException as exc: cb = format_helpers._format_callback_source( self._callback, self._args) msg = f'Exception in callback {cb}' context = { 'message': msg, 'exception': exc, 'handle': self, } if self._source_traceback: context['source_traceback'] = self._source_traceback self._loop.call_exception_handler(context) self = None # 发生异常时需要中断循环。
Task.__step() 中的逻辑是如何运行传入的协程函数:
# 包含所有正在活动的任务 _all_tasks = weakref.WeakSet() # 一个字典,包含当前正在活动的任务 {loop: task} _current_tasks = {} def _enter_task(loop, task): # 4. 为当前的 loop 添加活动任务 # 若当前 loop 已经有一个活动任务,则抛出 RuntimeError current_task = _current_tasks.get(loop) if current_task is not None: raise RuntimeError(f"Cannot enter into task {task!r} while another " f"task {current_task!r} is being executed.") _current_tasks[loop] = task def _leave_task(loop, task): # 10. 取消活动任务 current_task = _current_tasks.get(loop) if current_task is not task: raise RuntimeError(f"Leaving task {task!r} does not match " f"the current task {current_task!r}.") del _current_tasks[loop] class Task(futures._PyFuture): _log_destroy_pending = True def __init__(self, coro, *, loop=None, name=None, context=None): super().__init__(loop=loop) if self._source_traceback: del self._source_traceback[-1] if not coroutines.iscoroutine(coro): self._log_destroy_pending = False raise TypeError(f"a coroutine was expected, got {coro!r}") if name is None: self._name = f'Task-{_task_name_counter()}' else: self._name = str(name) self._num_cancels_requested = 0 self._must_cancel = False self._fut_waiter = None # 当前运行时来看,这里应该是入口函数的 coroutine # 即为 asyncio.run(main()) 的 main() self._coro = coro if context is None: self._context = contextvars.copy_context() else: self._context = context self._loop.call_soon(self.__step, context=self._context) _register_task(self) def __step(self, exc=None): # 1. 若当前任务已经 done 掉则抛出异常(这里的异常会被 handle._run 捕获的) if self.done(): raise exceptions.InvalidStateError( f'_step(): already done: {self!r}, {exc!r}') # 2. 若需要取消,且 exc 不是 CancelledError 类型的异常,则创建一个取消任务 # 实际上就是将 exc 赋值成一个 CancelledError 的对象 if self._must_cancel: if not isinstance(exc, exceptions.CancelledError): exc = self._make_cancelled_error() self._must_cancel = False coro = self._coro self._fut_waiter = None # 3. 调用 _enter_task() 函数 _enter_task(self._loop, self) # Call either coro.throw(exc) or coro.send(None). try: # 主动启动协程对象 if exc is None: # 我们直接使用 `send` 方法,因为协程 # 没有 __iter__ 和 __next__ 方法。 result = coro.send(None) else: # 如果有 exc 则通过 throw 向协程函数内部抛出异常 result = coro.throw(exc) except StopIteration as exc: # 4. 若协程函数执行完毕则判断是否需要取消 if self._must_cancel: # 通过调度后尝试取消任务(下次事件循环过程中触发) self._must_cancel = False super().cancel(msg=self._cancel_message) else: # 设置结果 super().set_result(exc.value) except exceptions.CancelledError as exc: # 5. 保存原始异常,以便我们稍后将其链接起来 self._cancelled_exc = exc # 通过调度后尝试取消任务(下次事件循环过程中触发) super().cancel() # I.e., Future.cancel(self). except (KeyboardInterrupt, SystemExit) as exc: # 6. 如果是 <c-c> 或者系统推出,则设置异常任务,立即触发 super().set_exception(exc) raise except BaseException as exc: # 7. 若是其他基本异常,则设置异常任务,立即触发 super().set_exception(exc) else: # 8. 没有异常,对协程结果开始进行判定 # 首先,查看 result 是否具有 _asyncio_future_blocking 属性 blocking = getattr(result, '_asyncio_future_blocking', None) if blocking is not None: # 如果 result 对象所属的事件循环与当前任务的事件循环不一致 # 则抛出 RuntimeError 异常(下次事件循环过程中触发) if futures._get_loop(result) is not self._loop: new_exc = RuntimeError( f'Task {self!r} got Future ' f'{result!r} attached to a different loop') self._loop.call_soon( self.__step, new_exc, context=self._context) # 如果 blocking 为 True elif blocking: # 如果返回的结果就是 Task 本身, 则引发 RuntimeError # (下次事件循环过程中触发) if result is self: new_exc = RuntimeError( f'Task cannot await on itself: {self!r}') self._loop.call_soon( self.__step, new_exc, context=self._context) # 将 self.__wakeup 设置为 result 对象的回调函数 # 并将 result 对象作为等待者保存在 _fut_waiter 属性中 # 如果此时任务需要取消,并且成功取消了等待者,则将 _must_cancel 标志设置为 False。 else: result._asyncio_future_blocking = False result.add_done_callback( self.__wakeup, context=self._context) self._fut_waiter = result if self._must_cancel: if self._fut_waiter.cancel( msg=self._cancel_message): self._must_cancel = False # 如果 blocking 值为 False # 则抛出 RuntimeError 异常(下次事件循环过程中触发) else: new_exc = RuntimeError( f'yield was used instead of yield from ' f'in task {self!r} with {result!r}') self._loop.call_soon( self.__step, new_exc, context=self._context) # 如果结果对象 result 为 None # 表示协程使用了 yield 语句,它调度一个新的事件循环迭代,即再次调用 __step 方法。 # 直到 StopIteration 被触发后,协程函数才真正运行完毕 elif result is None: self._loop.call_soon(self.__step, context=self._context) # 如果结果对象 result 是一个生成器对象 # 则抛出 RuntimeError 异常,表示协程在生成器中使用了错误的语法。 # (下次事件循环过程中触发) elif inspect.isgenerator(result): # Yielding a generator is just wrong. new_exc = RuntimeError( f'yield was used instead of yield from for ' f'generator in task {self!r} with {result!r}') self._loop.call_soon( self.__step, new_exc, context=self._context) else: # 对于其他类型的结果对象,抛出 RuntimeError 异常,表示协程产生了无效的 # 结果(下次事件循环过程中触发) new_exc = RuntimeError(f'Task got bad yield: {result!r}') self._loop.call_soon( self.__step, new_exc, context=self._context) finally: # 9. 最后,使用 _leave_task 取消活动任务 _leave_task(self._loop, self) # 发生异常,需要中断循环 self = None
众所周知,无论是 task 对象还是 future 未来对象,我们都可以通过 add_done_callback() 方法来为其新增一个回调函数。
那么在上面 task.__step() 方法运行的过程中,回调函数是在何时运行呢?
先从 add_done_callback() 方法看起,它其实是由 Task 类的父类 Future 实现:
class Future: _state = _PENDING _result = None _exception = None _loop = None _source_traceback = None _cancel_message = None _cancelled_exc = None def __init__(self, *, loop=None): """ if loop is None: self._loop = events._get_event_loop() else: self._loop = loop self._callbacks = [] if self._loop.get_debug(): self._source_traceback = format_helpers.extract_stack( sys._getframe(1)) # ... def add_done_callback(self, fn, *, context=None): # 若当前对象的状态不是 peding # 则将 callback 放在下次事件循环中运行 if self._state != _PENDING: self._loop.call_soon(fn, self, context=context) else: # 否则,将回调函数放在列表中 if context is None: context = contextvars.copy_context() self._callbacks.append((fn, context))
调用 callback 的方法是由 Future 实现,方法名为 __schedule_callbacks,源码如下:
def __schedule_callbacks(self): callbacks = self._callbacks[:] if not callbacks: return self._callbacks[:] = [] # 循环所有回调函数、统一将其安排在下一次循环中按顺序执行 for callback, ctx in callbacks: self._loop.call_soon(callback, self, context=ctx)
接下来我们只需要找到在那些方法中会调用 __schedule_callbacks 就知道了其执行时机,以下方法均为 Future 类提供:
def set_result(self, result): if self._state != _PENDING: raise exceptions.InvalidStateError(f'{self._state}: {self!r}') self._result = result self._state = _FINISHED # 修改任务状态 self.__schedule_callbacks() def set_exception(self, exception): if self._state != _PENDING: raise exceptions.InvalidStateError(f'{self._state}: {self!r}') if isinstance(exception, type): exception = exception() if type(exception) is StopIteration: raise TypeError("StopIteration interacts badly with generators " "and cannot be raised into a Future") self._exception = exception self._exception_tb = exception.__traceback__ self._state = _FINISHED # 修改任务状态 self.__schedule_callbacks() self.__log_traceback = True def cancel(self, msg=None): self.__log_traceback = False if self._state != _PENDING: return False self._state = _CANCELLED # 修改任务状态 self._cancel_message = msg self.__schedule_callbacks() return True
以此可见,回调函数的执行会放在事件循环的就绪队列中,如果 task 或者 future 的 callback 在执行过程中拥有较长的阻塞时长时,将会阻塞整个事件循环!
除此之外,每一次 callback 的执行必须是在当前主任务运行完毕后执行。举个例子:
ready = [task1, task2, task3]
若第一个 task 有 callback, 则其 callback 会放在最后:
ready = [task2, task3, task1_cb]
callback 运行前必须先运行 task2 和 task3。
当主协程任务结束后,所有的子协程任务也会结束掉。这是为什么呢?我们继续从源码角度进行分析。
首先在 BaseEventLoop.run_until_complete() 方法中,_ready 队列会在下次循环中添加 1 个 callback:
future.add_done_callback(_run_until_complete_cb) def add_done_callback(self, fn, *, context=None): if self._state != _PENDING: self._loop.call_soon(fn, self, context=context) else: # 主协程任务的状态此时应该是 peding # 所以他只会在主协程任务结束后将回调添加到 ready 队列中 if context is None: context = contextvars.copy_context() self._callbacks.append((fn, context))
当主协程任务在 BaseEventLoop.__step() 方法中被运行 set_result()、set_exception()、或者 cancel() 任意一个时,BaseEventLoop._run_until_complete_cb() 都会被添加进 _ready 队列中。
而 BaseEventLoop._run_until_complete_cb() 方法的实现如下:
def _run_until_complete_cb(fut): if not fut.cancelled(): exc = fut.exception() if isinstance(exc, (SystemExit, KeyboardInterrupt)): # Issue #22429: run_forever() already finished, no need to # stop it. return futures._get_loop(fut).stop()
事件循环的 stop() 方法实现、直接看 BaseEventLoop.stop() 即可,因为 _UnixSelectorEventLoop 包括 BaseSelectorEventLoop 都未实现该方法:
def stop(self): self._stopping = True
最后再回过头看 BaseEventLoop.run_forever() 方法,是不是明了了些?:
def run_forever(self): # ... try: self._thread_id = threading.get_ident() sys.set_asyncgen_hooks(firstiter=self._asyncgen_firstiter_hook, finalizer=self._asyncgen_finalizer_hook) events._set_running_loop(self) while True: self._run_once() if self._stopping: break # ...
总结、在主协程任务运行时,其 callback 方法 BaseEventLoop._run_until_complete_cb() 并不会马上添加至 ready 队列中。
一但主协程任务运行完毕(调用 cancel()、set_result()、set_exception())时,callback 会立即添加到 ready 队列中。
这意味着事件循环即将结束,但在 callback 之前的子任务还可以继续运行,一旦当 callback 执行完毕,那么就意味着事件循环被关闭掉了。BaseEventLoop._run_once() 方法也不会继续运行。至此整个事件循环的生命周期才真正结束。
基本的事件循环启动和任务执行流程图如下:
由于平时要忙工作什么的,算下来这篇文章总共花了我大概小半个月时间,不过算起来收获颇丰。
至少笔者在读完 asyncio 事件循环后,也有了一些新的感悟:
其实 asyncio 不止单单一个事件循环、除此之外还有 socket、流式传输、各种锁的应用等等,事件循环只能说是 asyncio 中的基础。
最后的最后,希望大家继续努力,保持学习,不忘初心。
还是开篇那句话 「路漫漫其修远兮, 吾将上下而求索」与诸君共勉之。