celery笔记八之数据库操作定时任务
本文首发于公众号:Hunter后端
原文链接:celery笔记八之数据库操作定时任务
前面我们介绍定时任务是在 celery.py 中的 app.conf.beat_schedule 定义,这一篇笔记我们介绍一下如何在 Django 系统中的表里来操作这些任务。
- 依赖及migrate操作
- beat 的启动
- 表介绍
- 手动操作定时任务
1、依赖安装及migrate操作
我们先通过 app.conf.beat_schedule 定义定时任务:
app.conf.beat_schedule = {
'add-every-60-seconds': {
'task': 'blog.tasks.add',
'schedule': 60,
'args': (16, 16),
},
'schedule_minus': {
'task': 'blog.tasks.minus',
'schedule': crontab(minute=5, hour=2),
'args': (12, 24),
},
}
如果我们就这样启动 Django 系统,worker 和 beat 服务,系统的定时任务就只有一个,写死在系统里。
当然,我们也可以使用一些 celery 的函数来手动向系统里添加定时任务,但是我们有一个更好的方法来管理操作这些定时任务,那就是将这些定时任务写入到数据库中,来进行增删改查操作,定制开发。
将定时任务写入数据库,我们需要进行以下几步操作:
- 安装依赖
- INSTALLED_APP添加模块
- 执行migrate
安装依赖
通过 pip 安装一个 django-celery-beat 依赖:
pip3 install django-celery-beat
INSTALLED_APP添加模块
安装后,要正常使用还需要将其添加到 settings.py 的 INSTALLED_APPS 中:
# settings.py
INSTALLED_APPS = [
...,
'django_celery_beat',
]
执行migrate
接下来我们执行 migrate 操作将需要创建的表写入数据库:
python3 manage.py migrate
可以看到如下输出:
Running migrations:
Applying django_celery_beat.0001_initial... OK
Applying django_celery_beat.0002_auto_20161118_0346... OK
Applying django_celery_beat.0003_auto_20161209_0049... OK
Applying django_celery_beat.0004_auto_20170221_0000... OK
Applying django_celery_beat.0005_add_solarschedule_events_choices... OK
Applying django_celery_beat.0006_auto_20180322_0932... OK
Applying django_celery_beat.0007_auto_20180521_0826... OK
Applying django_celery_beat.0008_auto_20180914_1922... OK
Applying django_celery_beat.0006_auto_20180210_1226... OK
Applying django_celery_beat.0006_periodictask_priority... OK
Applying django_celery_beat.0009_periodictask_headers... OK
Applying django_celery_beat.0010_auto_20190429_0326... OK
Applying django_celery_beat.0011_auto_20190508_0153... OK
Applying django_celery_beat.0012_periodictask_expire_seconds... OK
Applying django_celery_beat.0013_auto_20200609_0727... OK
Applying django_celery_beat.0014_remove_clockedschedule_enabled... OK
Applying django_celery_beat.0015_edit_solarschedule_events_choices... OK
然后可以看到在 Django 系统对应的数据库里新增了几张表,表的介绍及使用我们在后面再介绍。
2、beat 的启动
在启动 beat 前,我们需要对时区进行设置,前面我们介绍过在 Django 和 celery 中都需要设置成北京时间:
TIME_ZONE = "Asia/Shanghai"
USE_TZ = False
# celery 时区设置
CELERY_TIMEZONE = "Asia/Shanghai"
CELERY_ENABLE_UTC = False
DJANGO_CELERY_BEAT_TZ_AWARE = False
启动 beat 我们需要添加参数将数据指定存储在数据库中,可以在启动 beat 的时候添加参数:
celery -A hunter beat -l INFO --scheduler django_celery_beat.schedulers:DatabaseScheduler
也可以通过 app.conf.beat_scheduler 指定值:
app.conf.beat_scheduler = 'django_celery_beat.schedulers:DatabaseScheduler'
然后直接启动 beat:
celery -A hunter beat -l INFO
3、表介绍
在执行完 migrate 之后系统会多出几张表,都是定时任务相关的表:
- django_celery_beat_clockedschedule
- django_celery_beat_crontabschedule
- django_celery_beat_intervalschedule
- django_celery_beat_solarschedule
- django_celery_beat_periodictask
- django_celery_beat_periodictasks
其中 django_celery_beat_clockedschedule 和 django_celery_beat_solarschedule 暂时不介绍
django_celery_beat_crontabschedule
是我们的周期任务表,比如我们上面定义的:
'schedule_minus': {
'task': 'blog.tasks.minus',
'schedule': crontab(minute=5, hour=2),
'args': (12, 24),
},
执行 celery 的 beat 后,会在该表新增一条数据,表的字段就是我们设置的 crontab() 里的值,包括 minute,hour,day_of_week,day_off_month,month_of_year 和 timezone。
除了 timezone 字段,前面的字段如何定义和使用上一篇笔记中已经详细介绍过,timezone 字段则是我们在 settings.py 里定义的时区信息。
django_celery_beat_intervalschedule
这张表的数据是我们定义的间隔时间任务的表,比如每隔多少秒,多少分钟执行一次。
该表只有 id, every 和 period 字段,every 表示的是时间的间隔,填写的数字,period 则是单位,可选项有:
- microseconds:毫秒
- seconds:秒
- minutes:分钟
- hours:小时
- days:天
我们在定义间隔任务的时候,除了直接使用数字表示秒之外,还可以使用 datetime.timedelta() 来定义其他时间,比如:
from datetime import timedelta
app.conf.beat_schedule = {
'add-every-60-seconds': {
'task': 'blog.tasks.add',
'schedule': timedelta(minutes=5),
'args': (16, 16),
},
}
但是当我们启动 beat 的时候,系统在写入数据库的时候还是会自动为我们将其转化为秒数,比如 minutes=5,会给我们加入的数据是:
every=300, period='seconds'
django_celery_beat_periodictask
这张表其实是对前面几张表的任务的一个汇总,
- crontab_id,interval_id 等外键字段来判断是属于哪张表的定时/周期任务
- last_run_at 上次运行时间
- total_run_count 总运行次数
- name 表示任务名称
- task 字段表示任务来源等
还有参数,队列等信息。
每一条在 django_celery_beat_crontabschedule 和 django_celery_beat_intervalschedule 表中的数据都必须在该表中有一个汇总的信息记录才可以正常运行。
也就是说在前面的两张表中可以添加各种任务执行的策略,然后在 django_celery_beat_periodictask 中有一个数据指向该策略,就可以使用该策略进行周期任务的执行。
其中,name 字段上是有唯一键的,但是 task 可以重复写入,这也就意味着我们可以针对同一个 task 制定不同的定时策略。
django_celery_beat_periodictasks
这个表就一条数据,保存的是系统上一次执行任务的时间。
4、手动操作定时任务
接下来我们自己定义两个周期任务,一个是 blog.tasks.add 函数,每隔20s运行一次,另一个是 blog.tasks.minus 函数,每天晚上 23点15分执行一次。
我们首先还是运行 beat 和 worke,然后在 python3 manage.py shell 中执行下面的代码:
import json
from django_celery_beat.models import IntervalSchedule, CrontabSchedule, PeriodicTask
twenty_second_interval, _ = IntervalSchedule.objects.get_or_create(every=20, period=IntervalSchedule.SECONDS)
eleven_clock_crontab, _ = CrontabSchedule.objects.get_or_create(minute=18, hour=23)
PeriodicTask.objects.get_or_create(
interval_id=twenty_second_interval.id,
name="twenty_second_interval",
task="blog.tasks.add",
args=json.dumps([1, 2]),
)
PeriodicTask.objects.get_or_create(
crontab_id=eleven_clock_crontab.id,
name="eleven_clock_crontab",
task="blog.tasks.minus",
args=json.dumps([8, 2]),
)
然后可以看到运行 beat 的 shell 中或者日志文件有输出下面的信息:
DatabaseScheduler: Schedule changed.
其实就是系统监测了 PeriodicTask 表,发现它的数据有变化就会重新更改一次,当 beat 服务启动,系统会去 PeriodicTask 表里获取数据。
如果这些任务的数据有更改,系统就会检测到然后发出 Schedule changed 的信息。
我这边测试了 name、enabled、one_off、args 等字段,发现修改后系统都会捕获到任务的变化。
其中,one_off 字段的含义是该任务仅执行一次。
如果想获取更多后端相关文章,可扫码关注阅读:

celery笔记八之数据库操作定时任务的更多相关文章
- 实验八 sqlite数据库操作
实验报告 课程名称 基于Android平台移动互联网开发 实验日期 2016年5月3日 实验项目名称 SQLite数据库操作 实验地点 S30010 实验类型 □验证型 √设计型 □综合型 ...
- Python学习笔记六:数据库操作
一:Python操作数据库的流程 二:开发环境准备 1:开发工具PyCharm 2:Python操作mysql的工具:需要安装Python-Mysql Connector,网址:https://sou ...
- django上课笔记4-复习数据库操作-复习模板-Seccion-详细cookie和session的区别
一.复习数据库操作 字段类型 字符串 EmailField(CharField): IPAddressField(Field) URLField(CharField) SlugField(CharFi ...
- Java 学习笔记(16)——Java数据库操作
数据库操作是程序设计中十分重要的一个部分,Java内置JDBC来操作数据库 JDBC使用 JDBC--Java Database connecting Java数据库连接:本质上JDBC定义了操作数据 ...
- [Python] 学习笔记之MySQL数据库操作
1 Python标准数据库接口DB-API介绍 Python标准数据库接口为 Python DB-API,它为开发人员提供了数据库应用编程接口.Python DB-API支持很多种的数据库,你可以选择 ...
- STM32学习笔记(八) SPI总线(操作外部flash)
1. SPI总线简介 SPI全称串行外设接口,是一种高速,全双工,同步的外设总线:它工作在主从方式,常规需要至少4根线才能够正常工作.SPI作为基本的外设接口,在FLASH,EPPROM和一些数字通讯 ...
- Python学习笔记21:数据库操作(sqlite3)
Python自带一个轻量级的关系型数据库SQLite.这一数据库使用SQL语言. SQLite作为后端数据库,能够搭配Python建站点,或者制作有数据存储需求的工具. SQLite还在其他领域有广泛 ...
- laravel5.8笔记八:数据库(单库和多库)
数据库配置:根目录下/.env, 单个数据库 .env配置 DB_CONNECTION=mysql DB_HOST=127.0.0.1 DB_PORT= DB_DATABASE=shop DB_USE ...
- python学习笔记(十)完善数据库操作
1.cur = coon.cursor(cursor=pymysql.cursors.DictCursor)的用法 建立游标,指定cursor类型返回的是字典,如果不指定类型,返回的是元组类型数据 i ...
- Python学习笔记八:文件操作(续),文件编码与解码,函数,递归,函数式编程介绍,高阶函数
文件操作(续) 获得文件句柄位置,f.tell(),从0开始,按字符数计数 f.read(5),读取5个字符 返回文件句柄到某位置,f.seek(0) 文件在编辑过程中改变编码,f.detech() ...
随机推荐
- 19.13备库duplicate恢复新主库(二)
问题描述:主备两个库不在同一个机房,此时想从这一套库中在复制一套可读可写的新库出来.网络带宽要求比较高,需要从备库中使用备份在起一个新库,也要测试下使用duplicate从备库能够在复制一个新库.经过 ...
- Redis的缓存穿透+解决方案
1.缓存穿透现象介绍 缓存穿透 :缓存穿透是指客户端请求的数据在缓存中和数据库中都不存在,这样缓存永远不会生效,这些请求都会打到数据库. 常见的解决方案有两种: 缓存空对象 优点:实现简单,维护方便 ...
- 2023-04-20:有一堆石头,用整数数组 stones 表示 其中 stones[i] 表示第 i 块石头的重量。 每一回合,从中选出任意两块石头,然后将它们一起粉碎 假设石头的重量分别为 x 和
2023-04-20:有一堆石头,用整数数组 stones 表示 其中 stones[i] 表示第 i 块石头的重量. 每一回合,从中选出任意两块石头,然后将它们一起粉碎 假设石头的重量分别为 x 和 ...
- json解析异常显示
解决方案 1.取消FastJson的循环引用的检查:JSONObject.toJSONString(guardVoList,SerializerFeature.DisableCircularRefer ...
- 真实场景sql优化持续更新(老司机必备)
概述 下述场景,均来自实际产品线上经验,出于保密考量,所有需求场景都是仿造的,模拟遇到过的真实场景. 场景一: 统计数据(Order by 不具备唯一性导致的分页数据混乱) 需求 在实际业务场景中,我 ...
- [双目视差] 立体匹配算法推理 - SGBM算法(一)
文章目录 立体匹配算法推理 - SGBM算法(一) 一.SGBM与SGM的区别 二.代价计算 立体匹配算法推理 - SGBM算法(一) SGBM立体匹配算法,总体来讲包含以下6个步骤: Preproc ...
- Python 将函数存储在模块中
将函数存储在模块中 将函数存储在被称为模块的独立文件中,在将模块导入到主程序中 import语句允许在当前运行的程序文件中使用模块中的代码 通过将函数存储在独立的文件中,可影藏程序的代码细节,将重点放 ...
- [Pytorch框架] 1.6 训练一个分类器
文章目录 训练一个分类器 关于数据? 训练一个图像分类器 在GPU上训练 多GPU训练 下一步? 训练一个分类器 上一讲中已经看到如何去定义一个神经网络,计算损失值和更新网络的权重. 你现在可能在想下 ...
- Prism Sample 20-NavigateToExistingViews
上一个例子介绍了INavigationAware中的OnNavitationTo,这次是第二个实现函数. IsNavitationTarget,这个名字有点误导,真实的作用是,当从其它页面导航至本页面 ...
- 通过Serverless私有化部署ChatGPT Web
作为开发人员,想要自己部署一个渠道访问或是想随时访问但是奈何魔法有限,又或是海外服务器太贵,不想耗费这个钱,本文借助 Serverless 来搭建一下私有 ChatGPT 服务,Serverless ...