Celery在Django中的使用

celery+django使用教程

建议先看一下最下面的一些坑,总结的不是太全,celery与django-celery最好版本保持一致,总之坑比较多,但不放弃就可以爬出来

目录结构

taskproj
├── app01
│   ├── __init__.py
│   ├── apps.py
│   ├── migrations
│   │   └── __init__.py
│   ├── models.py
│   ├── tasks.py
│   └── views.py
├── manage.py
├── taskproj
│   ├── __init__.py
│   ├── settings.py
│   ├── urls.py
│   └── wsgi.py
└── templates
1、安装软件
pip install celery==3.1.22
pip install django-celery==3.1.22
pip install -U "celery[redis]"

2、新建celery文件

#! /usr/bin/env python
# coding: utf-8

from __future__ import absolute_import
import os
from celery import Celery
from django.conf import settings

# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'taskproj.settings')
app = Celery('taskproj')

# Using a string here means the worker will not have to
# pickle the object when using Windows.
app.config_from_object('django.conf:settings')
app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)  
# 不添加(lambda: settings.INSTALLED_APPS) 可能会报错

3、配置setting里的内容

INSTALLED_APPS = [
...,
  'djcelery',
]

LANGUAGE_CODE = 'zh-hans'
TIME_ZONE = 'Asia/Shanghai'
USE_TZ = False

# broker是代理人,它负责分发任务给worker去执行
REDIS_URL = '47.98.xxx.xx'
#《!不设置找不到下面的路径 !》
BROKER_URL = 'redis://{0}:6379/6'.format(REDIS_URL) 
CELERY_BROKER_URL = 'redis://47.98.xxx.xx:6379/5' # Broker配置,使用Redis作为消息中间件
CELERY_RESULT_BACKEND = 'redis://47.98.xxx.xx:6379/5' # BACKEND配置,这里使用redis
CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案
######################
#       队列         #
######################
# 导入目标任务文件
# # CELERY_IMPORTS = ('task.tasks',) # 这里可以不用设置,否则会重复导入任务
# CELERY_ACCEPT_CONTENT = ['json']
# CELERY_TASK_SERIALIZER = 'json'
# CELERY_RESULT_SERIALIZER = 'json'
# # CELERY_TIMEZONE = TIME_ZONE
# CELERY_BROKER_URL = 'redis://{0}:6379/5'.format(REDIS_URL) # Broker配置,使用Redis作为消息中间件
# CELERY_RESULT_BACKEND = 'redis://{0}:6379/5'.format(REDIS_URL) # BACKEND配置,这里使用redis
# # CELERY_RESULT_BACKEND = 'django-db'
# CELERY_ENABLE_UTC = False
# DJANGO_CELERY_BEAT_TZ_AWARE = False
# CELERY_BEAT_SCHEDULER = 'django_celery_beat.schedulers:DatabaseScheduler'
# CELERYD_MAX_TASKS_PER_CHILD = 3
# # 设置结果的保存时间
# CELERY_TASK_RESULT_EXPIRES = 10 * 60
# # 设置默认不存结果
# CELERY_IGNORE_RESULT = False
# CELERYD_FORCE = True
# CELERY_TIMEZONE = 'Asia/Shanghai'

4、在 /taskproj/taskproj/__init__.py里添加如下内容

#!/usr/bin/env python
# encoding: utf-8
from __future__ import absolute_import, unicode_literals
# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .celery import app as celery_app

__all__ = ['celery_app']

import pymysql
pymysql.install_as_MySQLdb()

5、添加tasks

from __future__ import absolute_import, unicode_literals
from celery import shared_task

@shared_task()
def add(x, y):
  return x + y

@shared_task()
def mul(x, y):
  print("%d * %d = %d" % (x, y, x * y))
  return x * y

6、View视图函数

from django.http import JsonResponse
from app01 import tasks

# Create your views here.

def index(request,*args,**kwargs):
  res=tasks.add.delay(2,5)
  data = {
      'status':'successful',
      'task_id':res.task_id
  }
  return JsonResponse(data)

6.5 )进行结果验证

python manage.py runserver
celery worker -A taskproj -l info  # 启动woker

7、结果的查询,先进入redis数据库,选择进行查看

1、redis服务器开启命令    redis-server /etc/redis/redis.conf
(注释:/etc/redis/redis.conf,安装时的配置 文件路径,咱们的可能不一样,不添加可能报错)
2、redis客户端开启命令    redis-cli --raw           
(注释:--raw参数为了查看原生数据)
3、选择settings配置的redis库(本人配置的是5)
1) select 5
2) keys *      
(注释:查看该库所有的键)
3) get celery-task-meta-458ac683-5054-497e-b9e5-794a19f8c6a9

!1577503953859](/tmp/1577503953859.png)

8、把结果存储到mysql里

1.安装
pip install django-celery-results
2.配置settings.py,注册app
INSTALLED_APPS = (
  ...,
  'django_celery_results',
)
3.修改backend配置,将redis改为django-db
# CELERY_RESULT_BACKEND = 'redis://47.98.xxx.xx:6379/5' # BACKEND配置,这里使用redis
CELERY_RESULT_BACKEND = 'django-db' #使用django orm 作为结果存储
4.修改数据库
python manage.py makemigrations
python manage.py migrate django_celery_results

9、Task源码表结构

class TaskResult(models.Model):
  """Task result/status."""
  task_id = models.CharField(_('task id'), max_length=255, unique=True)
  task_name = models.CharField(_('task name'), null=True, max_length=255)
  task_args = models.TextField(_('task arguments'), null=True)
  task_kwargs = models.TextField(_('task kwargs'), null=True)
  status = models.CharField(_('state'), max_length=50,
                            default=states.PENDING,
                            choices=TASK_STATE_CHOICES
                            )
  content_type = models.CharField(_('content type'), max_length=128)
  content_encoding = models.CharField(_('content encoding'), max_length=64)
  result = models.TextField(null=True, default=None, editable=False)
  date_done = models.DateTimeField(_('done at'), auto_now=True)
  traceback = models.TextField(_('traceback'), blank=True, null=True)
  hidden = models.BooleanField(editable=False, default=False, db_index=True)
  meta = models.TextField(null=True, default=None, editable=False)
  objects = managers.TaskResultManager()
  class Meta:
      """Table information."""
      ordering = ['-date_done']
      verbose_name = _('task result')
      verbose_name_plural = _('task results')
  def as_dict(self):
      return {
          'task_id': self.task_id,
          'task_name': self.task_name,
          'task_args': self.task_args,
          'task_kwargs': self.task_kwargs,
          'status': self.status,
          'result': self.result,
          'date_done': self.date_done,
          'traceback': self.traceback,
          'meta': self.meta,
      }
  def __str__(self):
      return '<Task: {0.task_id} ({0.status})>'.format(self)
Django中使用定时任务
  如果想要在django中使用定时任务功能同样是靠beat完成任务发送功能,当在Django中使用定时任务时,需要安装django-celery-beat插件。以下将介绍使用过程。

安装配置
1.beat插件安装
pip install django-celery-beat
2.注册APP
INSTALLED_APPS = [
  ....  
  'django_celery_beat',
]
3.数据库变更
python manage.py migrate django_celery_beat
4.分别启动woker和beta
celery -A taskproj beat -l info --scheduler django_celery_beat.schedulers:DatabaseScheduler#启动beta 调度器使用数据库
celery worker -A taskproj -l info #启动woker
5.配置admin
urls.py
复制代码
# urls.py
from django.conf.urls import url
from django.contrib import admin
urlpatterns = [
  url(r'^admin/', admin.site.urls),
]
复制代码
6.创建用户
python manage.py createsuperuser
7.登录admin进行管理(地址http://127.0.0.1:8000/admin)并且还可以看到我们上次使用orm作为结果存储的表。
http://127.0.0.1:8000/admin/login/?next=/admin/

celery使用过程中的坑

1、版本之间相互不兼容:

1)django-celery不兼容celery4.0.0以上版本

2)python3.7以上版本不兼容celery,因为python3.7使用了async关键字,而celery用这个关键字了,解决办法可以直接把错误直接百度,我用的是修改async.py文件名,然后再把导包的位置进行修改

1、application(task producer)"任务的生产者",我们通过代码层面,产生任务然后发送给broker(task queue)
2、celery beat(task scheduler)"任务调度器",常见为生成定时任务
3、broker(task queue)"任务队列",我们需要将任务送往任务队列去,官网强烈推荐的broker有:redis和rabbitmq
4、worker(taks consumer)"任务消费者",在任务送往broker后,worker从中进行操作,完成任务后生成result
5、result 完成任务后产生的结果

Broker的选择broker我们可选的有redis和rabbitmq,官网推荐的两种,我们这里选redis,相对于rabbitmq更加轻量级,安装方便。所以我们需要安装redis,redis很容易安装,这里就不细讲了。

2、当然如果想要实现定时任务的话还需要安装django-celery-beta插件,需要注意的是Celery4.0只支持Django版本>=1.8的,如果是小于1.8版本需要使用Celery3.1。

猜你喜欢

转载自www.cnblogs.com/yichuncom/p/12112129.html
今日推荐