celery是一个强大的分布式任务队列的异步处理框架,它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务(async task)
和定时任务(crontab)
Celery的架构由三部分组成,消息中间件(Broker),任务执行单元(Worker)和任务执行结果存储(Result)组成。
消息中间件(Broker)
任务执行单元(Worker)
任务结果存储(Result)
另外
: Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等
其他
: Celery还支持不同的并发、序列化和压缩的手段
备注:我是在windows10环境下做的,Linux应该大同小异
pip install celery
这里有个坑.win10系统启动worker报错ValueError: not enough values to unpack (expected 3, got 0),解决办法:
pip install eventlet
Django中使用的时候,报错 AttributeError: ‘str’ object has no attribute ‘items’。redis版本太高,降低版本 pip install redis==2.10.6
pip install redis==2.10.6
备注:在这里,我使用的是redis作为消息中间件
# app.py from task import add if __name__ == '__main__': print("Start Task ...") result = add.delay(2, 8) print("result:",result) # 存到redis之后,返回的id print("result_id:",result.id) # 存到redis之后,返回的id print("result:", result.get()) # 方法返回值 print("End Task ...")
# task.py import time from celery import Celery # 实例化一个Celery broker = 'redis://ip:6379/1' backend = 'redis://ip:6379/2' # 参数1 自动生成任务名的前缀 # 参数2 broker 是我们的redis的消息中间件 # 参数3 backend 用来存储我们的任务结果的 app = Celery('my_task', broker=broker, backend=backend) # 加入装饰器变成异步的函数 @app.task def add(x, y): print('Enter call function ...') time.sleep(4) return x + y if __name__ == '__main__': # 这里生产的任务不可用,导入的模块不能包含task任务。会报错 print("Start Task ...") result = add.delay(2, 8) print("result:", result) print("End Task ...")
celery -A task worker -l info -P eventlet
备注:不要运行task.py,会报错
这个时候可以看终端,看看请求
新增检查文件 check.py
# check.py from celery.result import AsyncResult from task import app async_result=AsyncResult(id="455d6ad7-39cc-4e94-9fa9-456ae49cdd97", app=app) if async_result.successful(): result = async_result.get() print(result) # result.forget() # 将结果删除 elif async_result.failed(): print('执行失败') elif async_result.status == 'PENDING': print('任务等待中被执行') elif async_result.status == 'RETRY': print('任务异常后正在重试') elif async_result.status == 'STARTED': print('任务已经开始被执行')