建议先看一下最下面的一些坑,总结的不是太全,celery与django-celery最好版本保持一致,总之坑比较多,但不放弃就可以爬出来
目录结构
taskproj
├── app01
│ ├── __init__.py
│ ├── apps.py
│ ├── migrations
│ │ └── __init__.py
│ ├── models.py
│ ├── tasks.py
│ └── views.py
├── manage.py
├── taskproj
│ ├── __init__.py
│ ├── settings.py
│ ├── urls.py
│ └── wsgi.py
└── templates
1、安装软件
pip install celery==3.1.22
pip install django-celery==3.1.22
pip install -U "celery[redis]"
2、新建celery文件
#! /usr/bin/env python
# coding: utf-8
from __future__ import absolute_import
import os
from celery import Celery
from django.conf import settings
# set the default Django settings module for the 'celery' program.
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'taskproj.settings')
app = Celery('taskproj')
# Using a string here means the worker will not have to
# pickle the object when using Windows.
app.config_from_object('django.conf:settings')
app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
# 不添加(lambda: settings.INSTALLED_APPS) 可能会报错
3、配置setting里的内容
INSTALLED_APPS = [
...,
'djcelery',
]
LANGUAGE_CODE = 'zh-hans'
TIME_ZONE = 'Asia/Shanghai'
USE_TZ = False
# broker是代理人,它负责分发任务给worker去执行
REDIS_URL = '47.98.xxx.xx'
#《!不设置找不到下面的路径 !》
BROKER_URL = 'redis://{0}:6379/6'.format(REDIS_URL)
CELERY_BROKER_URL = 'redis://47.98.xxx.xx:6379/5' # Broker配置,使用Redis作为消息中间件
CELERY_RESULT_BACKEND = 'redis://47.98.xxx.xx:6379/5' # BACKEND配置,这里使用redis
CELERY_RESULT_SERIALIZER = 'json' # 结果序列化方案
######################
# 队列 #
######################
# 导入目标任务文件
# # CELERY_IMPORTS = ('task.tasks',) # 这里可以不用设置,否则会重复导入任务
# CELERY_ACCEPT_CONTENT = ['json']
# CELERY_TASK_SERIALIZER = 'json'
# CELERY_RESULT_SERIALIZER = 'json'
# # CELERY_TIMEZONE = TIME_ZONE
# CELERY_BROKER_URL = 'redis://{0}:6379/5'.format(REDIS_URL) # Broker配置,使用Redis作为消息中间件
# CELERY_RESULT_BACKEND = 'redis://{0}:6379/5'.format(REDIS_URL) # BACKEND配置,这里使用redis
# # CELERY_RESULT_BACKEND = 'django-db'
# CELERY_ENABLE_UTC = False
# DJANGO_CELERY_BEAT_TZ_AWARE = False
# CELERY_BEAT_SCHEDULER = 'django_celery_beat.schedulers:DatabaseScheduler'
# CELERYD_MAX_TASKS_PER_CHILD = 3
# # 设置结果的保存时间
# CELERY_TASK_RESULT_EXPIRES = 10 * 60
# # 设置默认不存结果
# CELERY_IGNORE_RESULT = False
# CELERYD_FORCE = True
# CELERY_TIMEZONE = 'Asia/Shanghai'
4、在 /taskproj/taskproj/__init__.py里添加如下内容
#!/usr/bin/env python
# encoding: utf-8
from __future__ import absolute_import, unicode_literals
# This will make sure the app is always imported when
# Django starts so that shared_task will use this app.
from .celery import app as celery_app
__all__ = ['celery_app']
import pymysql
pymysql.install_as_MySQLdb()
5、添加tasks
from __future__ import absolute_import, unicode_literals
from celery import shared_task
@shared_task()
def add(x, y):
return x + y
@shared_task()
def mul(x, y):
print("%d * %d = %d" % (x, y, x * y))
return x * y
6、View视图函数
from django.http import JsonResponse
from app01 import tasks
# Create your views here.
def index(request,*args,**kwargs):
res=tasks.add.delay(2,5)
data = {
'status':'successful',
'task_id':res.task_id
}
return JsonResponse(data)
6.5 )进行结果验证
python manage.py runserver
celery worker -A taskproj -l info # 启动woker
7、结果的查询,先进入redis数据库,选择进行查看
1、redis服务器开启命令 redis-server /etc/redis/redis.conf
(注释:/etc/redis/redis.conf,安装时的配置 文件路径,咱们的可能不一样,不添加可能报错)
2、redis客户端开启命令 redis-cli --raw
(注释:--raw参数为了查看原生数据)
3、选择settings配置的redis库(本人配置的是5)
1) select 5
2) keys *
(注释:查看该库所有的键)
3) get celery-task-meta-458ac683-5054-497e-b9e5-794a19f8c6a9
!1577503953859](/tmp/1577503953859.png)
8、把结果存储到mysql里
1.安装
pip install django-celery-results
2.配置settings.py,注册app
INSTALLED_APPS = (
...,
'django_celery_results',
)
3.修改backend配置,将redis改为django-db
# CELERY_RESULT_BACKEND = 'redis://47.98.xxx.xx:6379/5' # BACKEND配置,这里使用redis
CELERY_RESULT_BACKEND = 'django-db' #使用django orm 作为结果存储
4.修改数据库
python manage.py makemigrations
python manage.py migrate django_celery_results
9、Task源码表结构
class TaskResult(models.Model):
"""Task result/status."""
task_id = models.CharField(_('task id'), max_length=255, unique=True)
task_name = models.CharField(_('task name'), null=True, max_length=255)
task_args = models.TextField(_('task arguments'), null=True)
task_kwargs = models.TextField(_('task kwargs'), null=True)
status = models.CharField(_('state'), max_length=50,
default=states.PENDING,
choices=TASK_STATE_CHOICES
)
content_type = models.CharField(_('content type'), max_length=128)
content_encoding = models.CharField(_('content encoding'), max_length=64)
result = models.TextField(null=True, default=None, editable=False)
date_done = models.DateTimeField(_('done at'), auto_now=True)
traceback = models.TextField(_('traceback'), blank=True, null=True)
hidden = models.BooleanField(editable=False, default=False, db_index=True)
meta = models.TextField(null=True, default=None, editable=False)
objects = managers.TaskResultManager()
class Meta:
"""Table information."""
ordering = ['-date_done']
verbose_name = _('task result')
verbose_name_plural = _('task results')
def as_dict(self):
return {
'task_id': self.task_id,
'task_name': self.task_name,
'task_args': self.task_args,
'task_kwargs': self.task_kwargs,
'status': self.status,
'result': self.result,
'date_done': self.date_done,
'traceback': self.traceback,
'meta': self.meta,
}
def __str__(self):
return '<Task: {0.task_id} ({0.status})>'.format(self)
Django中使用定时任务
如果想要在django中使用定时任务功能同样是靠beat完成任务发送功能,当在Django中使用定时任务时,需要安装django-celery-beat插件。以下将介绍使用过程。
安装配置
1.beat插件安装
pip install django-celery-beat
2.注册APP
INSTALLED_APPS = [
....
'django_celery_beat',
]
3.数据库变更
python manage.py migrate django_celery_beat
4.分别启动woker和beta
celery -A taskproj beat -l info --scheduler django_celery_beat.schedulers:DatabaseScheduler#启动beta 调度器使用数据库
celery worker -A taskproj -l info #启动woker
5.配置admin
urls.py
复制代码
# urls.py
from django.conf.urls import url
from django.contrib import admin
urlpatterns = [
url(r'^admin/', admin.site.urls),
]
复制代码
6.创建用户
python manage.py createsuperuser
7.登录admin进行管理(地址http://127.0.0.1:8000/admin)并且还可以看到我们上次使用orm作为结果存储的表。
http://127.0.0.1:8000/admin/login/?next=/admin/
celery使用过程中的坑
1、版本之间相互不兼容:
1)django-celery不兼容celery4.0.0以上版本
2)python3.7以上版本不兼容celery,因为python3.7使用了async关键字,而celery用这个关键字了,解决办法可以直接把错误直接百度,我用的是修改async.py文件名,然后再把导包的位置进行修改
1、application(task producer)"任务的生产者",我们通过代码层面,产生任务然后发送给broker(task queue)
2、celery beat(task scheduler)"任务调度器",常见为生成定时任务
3、broker(task queue)"任务队列",我们需要将任务送往任务队列去,官网强烈推荐的broker有:redis和rabbitmq
4、worker(taks consumer)"任务消费者",在任务送往broker后,worker从中进行操作,完成任务后生成result
5、result 完成任务后产生的结果
Broker的选择broker我们可选的有redis和rabbitmq,官网推荐的两种,我们这里选redis,相对于rabbitmq更加轻量级,安装方便。所以我们需要安装redis,redis很容易安装,这里就不细讲了。
2、当然如果想要实现定时任务的话还需要安装django-celery-beta插件,需要注意的是Celery4.0只支持Django版本>=1.8的,如果是小于1.8版本需要使用Celery3.1。