哈喽,今天给大家分享一篇Django+Celery实现动态配置定时任务,因为最近也是无意间看到一位大佬关于这块的文章,然后自己觉得不错,也想学习写一下,然后最终实现功能是在前端页面统一管理计划任务,大家可以在admin管理页面设置,也可以在自己写的前端页面删除添加编辑,实时生效,还可以监控这些监控任务是否运行成功失败。
  补充:如果大家对celery不熟悉的话,建议先学习celery

 

 

  一、安装

1.在Linux系统上安装模块

1 celery (3.1.26.post2)
2 celery-with-redis (3.0)
3 redis (2.10.6)
4 Django (2.1.10)
5 django-celery (3.3.1)

2.迁移生成表

python manage.py migrate

3.查看生成的表,这几张表是上面执行命令后生成的

 二、配置

1.添加apps

1 INSTALLED_APPS = [
2     'django.contrib.admin',
3     'django.contrib.auth',
4     'django.contrib.contenttypes',
5     'django.contrib.sessions',
6     'django.contrib.messages',
7     'django.contrib.staticfiles',
8     'djcelery',    #这是要添加的
9 ]

2.配置django时区

1 LANGUAGE_CODE = 'en-us'
2 TIME_ZONE = 'Asia/Shanghai'
3 USE_I18N = True
4 USE_L10N = True
5 USE_TZ = False

3.Celery配置

 1 BROKER_URL = 'redis://localhost:6379' #代理人
 2 CELERY_RESULT_BACKEND = 'redis://localhost:6379' #结果存储地址
 3 CELERY_ACCEPT_CONTENT = ['application/json'] #指定任务接收的内容序列化类型
 4 CELERY_TASK_SERIALIZER = 'json' #任务序列化方式
 5 CELERY_RESULT_SERIALIZER = 'json' #任务结果序列化方式
 6 CELERY_TASK_RESULT_EXPIRES = 12 * 30 #超过时间
 7 CELERY_MESSAGE_COMPRESSION = 'zlib' #是否压缩
 8 CELERYD_CONCURRENCY = 4 #并发数默认已CPU数量定
 9 CELERYD_PREFETCH_MULTIPLIER = 4 #celery worker 每次去redis取任务的数量
10 CELERYD_MAX_TASKS_PER_CHILD = 3 #每个worker最多执行3个任务就摧毁,避免内存泄漏
11 CELERYD_FORCE_EXECV = True #可以防止死锁
12 CELERY_ENABLE_UTC = False  #关闭时区
13 CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler' # 定时任务调度器

4.在你项目的app下面配置celery.py

 1 import os
 2 from celery import Celery,platforms
 3 from django.conf import settings
 4 os.environ.setdefault('DJANGO_SETTINGS_MODULE','blog.settings')
 5 app = Celery('blog')
 6 app.config_from_object('django.conf:settings')
 7 app.autodiscover_tasks(lambda: settings.INSTALLED_APPS)
 8 platforms.C_FORCE_ROOT = True
 9 
10 @app.task(bind=True)
11 def debug_task(self):
12     print('Request: {0!r}'.format(self.request))

5.配置刚才app下面的__init__.py文件

1 from __future__ import absolute_import
2 from .celery import app as celery_app

6.在app下面创建一个tasks.py文件

 1 from blog.celery import app
 2 @app.task()
 3 def get_date(x,y,s):  #这里的函数留意一下,后面会用到
 4     print(s)
 5     return x + y
 6 
 7 @app.task()
 8 def get_task():
 9     return 'test'
10 
11 @app.task()
12 def get_command_task():
13     return 'success'

三、启动

1.进入你项目下面,执行启动worker,Worker是执行任务的单元,它实时监控消息队列,如果有任务就获取任务并执行它。

1 celery -A autoops worker -l info

2.进入你项目下面,执行启动beat,beat是定时把这个任务扔到队列中

1 celery -A autoops beat -l info    

3.启动你的django项目

1 python manage.py runserver 192.168.10.133:8001

4.页面展示

4.1这个是admin页面下的,然后我自己重新写了,大家也可以自己写一个,admin和我自己写的页面实现的功能其实是一模一样的。

 4.2.对应admin页面的crontabs

 添加周期

 编辑修改周期

 5.tasks任务

5.1.大家可以看到我添加了一个名为测试的任务,每隔一分钟执行一次,任务模板其实就是你写的tasks文件里面函数

 

 看一下worker进程日志输出

 四、监控计划任务

celery作为一个分布式异步任务队列管理工具,通过界面化的方式来进行管控任务的执行状态和查看任务执行结果
flower作为web页面来管理celery后台任务,和任务队列是隔离的,也就是flower的运行与否并不会影响到任务队列的真正执行,但是flower中可以通过API接口来管理celery中的任务执行。
 
4.1安装flower,监控celery计划任务
1 pip3 install flower==0.9.2 -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
2 pip install tornado==5.1.1
3 celery flower -A blog --port=5555 #进入项目目录启动flower

 4.2打开浏览器,输入http://ip:5555 查看

Name: 表示该任务的名称,默认规则为该函数的路径规则,例如 {模块名}.{文件名}.{函数名}
UUID: 表示一个唯一字符串ID用于表示该任务
State: 表示该任务的状态,包括: SUCCESS / FAILURE / STARTED / RECEIVED
SUCCESS 表示该任务执行完毕且成功
FAILURE 表示该任务执行失败
STARTED 表示该任务正在执行
RECEIVED 表示该任务在worker中,只是被接收而已
args: 表示该任务的列表参数
kwargs: 表示该任务的字典参数
Result: 表示该任务函数的返回结果
Received: 表示该任务在worker接收到的时间
Started: 表示该任务在worker开始执行的时间
Runtime: 表示该任务在worker真正执行的耗时(单位:秒)
Worker: 表示该任务所在的worker名称  

https://www.cnblogs.com/huangxiaoxue/p/7266253.html 这是那位大佬的文章,可以看看喔。

总结:django+celery实现的定时任务还是不错的,你可以在前端上查看管理所有定时任务,实时修改生效删除和禁用,所以有需求的话可以去试试。下次再分享啦

 

版权声明:本文为summer-time原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/summer-time/p/12960583.html