Celery初识及简单实例
Celery是一个“自带电池”的任务队列。易于使用,可以轻易入门,它遵照最佳实践设计,使产品可以扩展,或与其他语言集成,并且它自带了在生产环境中运行这样一个系统所需的工具和支持。本文介绍基础部分:
- 选择和安装消息传输方式(中间人)。
- 安装Celery并创建一个任务
- 运行职程并调用任务
- 追踪任务在不同状态间的迁移,并检视返回值
一、选择中间人
Celery需要一个发送和接收消息的解决方案,其通常以独立服务形式出现,称为消息中间人。
可行的选择包括:
RabbitMQ
RabbitMQ功能完备、稳定、耐用,并且安装简便,是生产环境的绝佳选择。
Redis
Redis也是功能完备的,但更容易受濡染终端或断电地阿莱数据丢失的影响。
使用数据库
不推荐把数据库用于消息队列,但对于很小的项目可能是合适的。
其他中间人
还有其他实验性传输实现:AmazonSQS、MongoDB和IronMQ。
二、安装Celery
Celery提交到Python Package Index上,可以使用Python标准工具pip进行安装:
$ pip install celery
三、应用
首先需要一个Celery实例:这个实例用于你想在celery中做一切事,它必须可以被其他模块导入。
我们简单的放在一个模块中,对于比较大的项目,可以创建一个独立模块。
创建tasks.py:
from celery import Celery
app = Celery('tasks', broker='redis://127.0.0.1:6379/3')
@app.task
def add(x, y):
return x + y
创建APP的时候,Celery方法的第一个参数是我们当前py文件的名字。broker是我们选择的中间人。上面的代码使用的是redis。
接下来我们可以先运行我们的工作任务。
$ celery -A tasks worker --loglevel=info
使用celery命令,第二个参数'tasks'还是我们的py文件名字,后面是指定日志级别。这条命令必须能找到我们的tasks文件才能运行起来。
接下来调用我们的任务:
>>> from tasks import add >>> add.delay(1, 3) <AsyncResult: 7217dee2-3869-4f5e-8ccc-3a3b3dd6a9d7> # 这里返回的是任务ID,而不是结果。
这样我们就实现了一个最简单的celery应用。
其他更多的参数命令,你可以通过下面的方式了解:
$ celery worker --help $ celery help
关于调用我们的任务方式:
- delay()
- apply_async()
# delay()这个方法使用起来更方便一些,它能像调用普通函数一样调用我们的任务
task.delay(arg1, arg2, kwarg1='x', kwarg2='y')
# 使用apply_async你还需要将参数进行整合
task.apply_async(args=[arg1, arg2], kwargs={'kwarg1': 'x', 'kwarg2': 'y'})
接下来说一下,在我们的应用中如何使用celery
项目布局:
proj/__init__.py
    /celery.py
    /tasks.py
项目中的celery.py
celery.py
from __future__ import absolute_import
from celery import Celery
app = Celery('mysite',  # 项目名称
             broker='redis://127.0.0.1:6379/3',  # 制定我们用的中间人
             backend='redis://127.0.0.1:6379/5',  # 定义回调中间人
             include=['proj.tasks'],) 
app.conf.update(
    result_expires=3600  # 设置过期时间
)
if __name__ == '__main__':
    app.start()
task.py
from __future__ import absolute_import
from .celery import app
import time
@app.task(bind=True)  # 指定bind=True,当前task函数第一个参数为task本身。
def add(self, x, y):
    time.sleep(1)
    self.update_state(state="PROGRESS", meta={'progress': 50})
    # task使用update_state修改当前状态可以触发on_message回调函数
    time.sleep(3)
    self.update_state(state="PROGRESS", meta={'progress': 90})
    time.sleep(1)
    print(self.request.chain)
    print(123456)
    self.request.chain = None  # 当使用chain同时调用多个task函数的时候,如果中间需要停止,可以使用self.request.chain = None
    self.update_state(state="PROGRESS", meta={'result': x + y})
    return x + y
@app.task(bind=True)
def mul(self, x, y):
    return x * y
@app.task
def div(x, y):
    return x / y
mysite/views.py
from celery import chain
from django.shortcuts import render, HttpResponse
from celery_work.tasks import add
from celery_work.tasks import mul
from celery_work.tasks import div
from celery_work.tasks import error_handler
# from celery_work.tasks import error_handler
def test(request):
    def on_raw_message(body):
        print(body)
    res = add.apply_async((1, 2))
    print(res.get(on_message=on_raw_message, propagate=False))
    # 注意这里使用了res.get(),所以并不是异步返回的,而是等拿到结果之后返回的
    return HttpResponse('ok')
# 异步方式处理函数,在add这个task函数中是有睡眠时间的,但是我们在发布任务之后就立即将任务ID返回给客户端了
def test0(request):
    res = add.apply_async((1, 2))
    return HttpResponse('async: %s' % res)
# 没有中断的chain任务
def test1(request):
    res = (mul.s(1, 2) | mul.s(3) | mul.s(3))()
    # 另一种写法  chain(mul.s(1, 2), mul.s(3), mul.s(3))()
    return HttpResponse(res.get())
# 有中断的chain任务,这里需要注意一下,我们在add这个函数中将chain终止了,res永远无法get到返回值
# 因为res是要取chain任务最后一个task函数的返回值,这样就要使用parent从最后一个task函数往前找,
# 直到找到终止chain任务的那个task函数,进行get
def test2(request):
    res = (add.s(1, 2) | mul.s(3) | mul.s(3))()
    print(res.parent.parent.get())
    print(res.parent.parent.successful())
    return HttpResponse('mul')

 
                
            
         浙公网安备 33010602011771号
浙公网安备 33010602011771号