Django+Celery 进阶:动态定时任务的添加、修改与智能调度实战
一、Celery定时任务
Celery Beat 介绍
Celery Beat 是 Celery 框架的一个内置组件,专门用于定时任务调度。它可以按照预设的时间规则(如固定间隔、特定时间点、CRON 表达式等)自动触发 Celery 任务,广泛应用于需要周期性执行的场景(如定时数据备份、日志清理、报表生成等)。
工作原理
- Beat 进程:独立运行的调度进程,负责解析定时规则并生成任务消息。
- 任务发送:当到达预设时间,Beat 进程将任务发送到 Celery 的消息队列(如 Redis)。
- 任务执行:Celery Worker 进程从队列中获取任务并执行。
简单来说,Celery Beat 是 “定时发令枪”,而 Worker 是 “执行者”。
Celery Beat 配置持久化
默认情况下,任务配置存储在内存中,重启后会丢失。需要通过后端存储(如数据库)实现持久化,确保任务配置不丢失。
| 项目名称 | 说明 |
|---|---|
| django-celery-beat | 通过数据库实现任务配置持久化 |
| django-celery-results | 通过数据库实现任务结果持久化 |
| django-celery | 只支持Celery 3.X版本(不推荐) |
二、Celery Beat与Django集成
安装配置
安装
pip install django-celery-beat django-celery-results
在Django项目settings.py中添加
INSTALLED_APPS = [
...
'django_celery_beat',
'django_celery_results'
]
### Celery 配置
CELERY_BROKER_URL = f"{REDIS_URL}/{REDIS_DB}" # 使用Redis作为消息代理
CELERY_RESULT_BACKEND = "django-db" # 使用数据库存储结果
CELERY_BEAT_SCHEDULER = (
"django_celery_beat.schedulers:DatabaseScheduler" # 使用数据库保存定时任务
)
CELERY_TIMEZONE = "Asia/Shanghai"
CELERY_ENABLE_UTC = True
CELERY_RESULT_EXTENDED = True # 启用后才会记录 task_name、date_started 等字段
CELERY_TASK_TRACK_STARTED = True # 记录任务开始时间
定义 Celery 实例:创建文件mysite\mysite\celery.py
"""定义和配置 Celery 实例"""
import os
from celery import Celery
from django.conf import settings
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "mysite.settings")
# 创建 Celery 实例
app = Celery("mysite")
# 加载配置文件中的 Celery 配置
app.config_from_object("django.conf:settings", namespace="CELERY")
# 自动发现并加载任务
app.autodiscover_tasks(["myapp_infra", "myapp_system"] + settings.MY_APPS, force=True)
配置 Django 启动时会加载应用:修改文件mysite\mysite\__init__.py
"""Django 启动时加载Celery实例"""
from .celery import app as celery_app
__all__ = ("celery_app",)
数据库迁移
执行数据库迁移,创建相关数据库表。其中:
- django_celery_beat_periodictask:用于存储任务名称、任务路径、任务参数等元数据。
- django_celery_beat_crontabschedule:用于存储CRON表达式。
# 在Django项目根目录(包括manage.py的目录)执行
python manage.py migrate django_celery_beat
python manage.py migrate django_celery_results

三、Celery Beat项目实战
定义Celery任务
发现任务:Celery 将自动从所有已安装的应用APP中发现任务,需要遵守以下目录结构
- myapp_system/
- tasks.py
- models.py
- myapp_infra/
- tasks.py
- models.py
定义任务:创建文件myapp_infra/tasks.py,使用@shared_task装饰器定义 Celery 任务
"""定义 Celery 任务"""
from time import sleep
from celery import shared_task
from django.utils import timezone
@shared_task
def send_daily_report():
# 示例:发送日报
print(f"开始发送日报,现在时间:{timezone.now()}")
sleep(30)
print("发送成功")
return "发送成功"
@shared_task
def cleanup_expired_data():
# 示例:清理过期数据
print("清理过期数据")
sleep(15)
print("清理完成")
return "清理完成"
通过视图集动态管理定时任务
下面是通过 DRF 视图集,动态管理定时任务示例,实现对定时任务的增删改查、手动触发、开启暂停等操作
- 定义视图:myapp_infra\job\views.py
import json
from celery import current_app
from django_celery_beat.models import PeriodicTask
from drf_spectacular.utils import extend_schema
from rest_framework.decorators import action
from rest_framework.generics import get_object_or_404
from mars_framework.viewsets.base import CustomModelViewSetNoSimple
from mars_framework.permissions.base import HasPermission
from mars_framework.response.base import CommonResponse
from .serializers import JobSaveSerializer, JobSerializer
from .filters import JobFilter
from .services import infra_job_service
@extend_schema(tags=["管理后台-infra-定时任务"])
class JobViewSet(CustomModelViewSetNoSimple):
queryset = PeriodicTask.objects.all()
serializer_class = JobSerializer
filterset_class = JobFilter
action_serializers = {
"create": JobSaveSerializer,
"update": JobSaveSerializer,
}
action_permissions = {
"create": [HasPermission("infra:job:create")],
"destroy": [HasPermission("infra:job:delete")], # TODO 是否需要删除对应shedule
"update": [HasPermission("infra:job:update")],
"retrieve": [HasPermission("infra:job:query")],
"list": [HasPermission("infra:job:query")],
"export": [HasPermission("infra:job:export")],
"update_status": [HasPermission("infra:job:update")],
"trigger": [HasPermission("infra:job:trigger")],
"sync": [HasPermission("infra:job:create")],
"get_next_times": [HasPermission("infra:job:query")],
}
action_querysets = {
# 排除name=celery.backend_cleanup
"list": PeriodicTask.objects.exclude(name="celery.backend_cleanup"),
"export": PeriodicTask.objects.exclude(name="celery.backend_cleanup"),
}
export_name = "定时任务列表"
export_fields_labels = {
"id": "任务编号",
"name": "任务名称",
"task": "处理器名字",
"kwargs": "处理器参数",
"cron_expression": "CRON表达式",
"status": "任务状态",
}
export_data_map = {
"status": {1: "开启", 2: "暂停"},
}
@extend_schema(summary="新增")
def create(self, request, *args, **kwargs):
"""创建定时任务"""
serializer = self.get_serializer(data=request.data)
serializer.is_valid(raise_exception=True)
# CRON表达式
cron_expression = serializer.validated_data.pop("cron_expression")
schedule = infra_job_service.get_or_create_crontab_schedule(cron_expression)
# 创建任务
task_data = {
"name": serializer.validated_data.get("name"),
"task": serializer.validated_data.get("task"),
"kwargs": serializer.validated_data.get("kwargs"),
"crontab": schedule,
"enabled": False, # 默认禁用
}
PeriodicTask.objects.create(**task_data)
return CommonResponse.success()
@extend_schema(summary="更新")
def update(self, request, *args, **kwargs):
"""更新定时任务"""
instance = self.get_object()
serializer = self.get_serializer(instance, data=request.data)
serializer.is_valid(raise_exception=True)
# 任务CRON表达式
cron_expression = serializer.validated_data.pop("cron_expression")
schedule = infra_job_service.get_or_create_crontab_schedule(cron_expression)
# 更新任务
task_data = {
"name": serializer.validated_data.get("name"),
"task": serializer.validated_data.get("task"),
"kwargs": serializer.validated_data.get("kwargs"),
"crontab": schedule,
}
PeriodicTask.objects.filter(id=instance.id).update(**task_data)
return CommonResponse.success()
@extend_schema(summary="触发定时任务")
@action(
methods=["put"],
detail=True,
url_path="trigger",
)
def trigger(self, request, *args, **kwargs):
"""触发定时任务"""
instance = self.get_object()
# 获取任务函数并手动触发
task_name = instance.task # 任务路径如 "myapp_infra.tasks.send_daily_report"
task_kwargs = json.loads(instance.kwargs or "{}")
try:
# 动态加载任务函数
task = current_app.tasks[task_name]
task.delay(**task_kwargs)
return CommonResponse.success()
except KeyError:
return CommonResponse.error(
code=121101,
msg=f"找不到 {task_name} 任务,或该任务未注册",
)
except Exception as e:
return CommonResponse.error(
code=121102,
msg=f"触发任务 {task_name} 失败,错误信息:{e}",
)
@extend_schema(summary="更新定时任务状态")
@action(
methods=["put"],
detail=True,
url_path="status",
)
def update_status(self, request, *args, **kwargs):
"""更新定时任务状态"""
status = request.query_params.get("status")
if status is None or status not in ["1", "2"]: # 1:开启 2:暂停
return CommonResponse.error(code=121104, msg="任务状态值错误")
instance = get_object_or_404(PeriodicTask, pk=kwargs.get("pk"))
instance.enabled = status == "1"
instance.save()
return CommonResponse.success()
@extend_schema(summary="获取定时任务的下 n 次执行时间")
@action(
methods=["get"],
detail=True,
url_path="next-times",
)
def get_next_times(self, request, *args, **kwargs):
"""获取定时任务的下 n 次执行时间"""
count = int(request.query_params.get("count", 5))
task = self.get_object()
# 生成CORN 表达式
crontab = task.crontab
cron_expression = f"{crontab.minute} {crontab.hour} {crontab.day_of_month} {crontab.month_of_year} {crontab.day_of_week}"
try:
data = infra_job_service.get_next_times(cron_expression, count)
except Exception as e:
return CommonResponse.error(code=121102, msg=str(e))
return CommonResponse.success(data=data)
- 配置路由:myapp_infra\urls.py
from .job.views import JobViewSet
# 管理后台 - 定时任务
router.register(r"job", JobViewSet, basename="job")
启动Celery Beat
- 启动Celery Worker和Celery Beat调度器
# 在项目目录(与manage.py同级),启动Celery Worker
celery -A mysite worker -l info -P solo
# 新建另一个终端窗口,在项目目录(与manage.py同级),启动Celery Beat
celery -A mysite beat -l info -S django_celery_beat.schedulers:DatabaseScheduler
# 新建另一个终端窗口,在项目目录(与manage.py同级),启动Django
python manage.py runserver
四、实战效果
通过上面定义的DRF视图集API,配合 Vue3 前端界面实现效果
- 定时任务的增、删、开启暂停功能

- 定时任务的修改功能
- 处理器名字:填写定义任务的全路径名称
- CRON表达式:填写标准的CRON表达式

- 定时任务执行结果查询功能:能看到定时任务的执行时间、状态、返回结果等信息

您正在阅读的是《Django从入门到实战》专栏!关注不迷路~
Django+Celery 进阶:动态定时任务的添加、修改与智能调度实战的更多相关文章
- Django + Celery 实现动态配置定时任务
哈喽,今天给大家分享一篇Django+Celery实现动态配置定时任务,因为最近也是无意间看到一位大佬关于这块的文章,然后自己觉得不错,也想学习写一下,然后最终实现功能是在前端页面统一管理计划任务,大 ...
- Django+Celery框架自动化定时任务开发
本章介绍使用DjCelery即Django+Celery框架开发定时任务功能,在Autotestplat平台上实现单一接口自动化测试脚本.业务场景接口自动化测试脚本.App自动化测试脚本.Web自动化 ...
- 基于Django+celery二次开发动态配置定时任务 ( 一 )
需求: 前端时间由于开发新上线一大批系统,上完之后没有配套的报表系统.监控,于是乎开发.测试.产品.运营.业务部.财务等等各个部门就跟那饥渴的饿狼一样需要 各种各样的系统数据满足他们.刚开始一天一个还 ...
- 基于Django+celery二次开发动态配置定时任务 ( 二)
一.需求 结合上一篇,使用djcelery模块开发定时任务时,定时任务的参数都保存在djcelery_periodictask表的args.kwargs字段里,并且是json格式.那么,当定时任务多了 ...
- SpringBoot定时任务升级篇(动态添加修改删除定时任务)
需求缘起:在发布了<Spring Boot定时任务升级篇>之后得到不少反馈,其中有一个反馈就是如何动态添加修改删除定时任务?那么我们一起看看具体怎么实现,先看下本节大纲: (1)思路说明: ...
- 【记录】【springboot】动态定时任务ScheduledFuture,可添加、修改、删除
这里只演示添加和删除任务的,因为修改就是删除任务再添加而已. 方便演示,任务就是每3秒打印 1.没有任务 后台 2.添加一个任务 3.再添加一个任务 4.删除一个任务 5.再添加一个任务 6.代码 运 ...
- Django+Celery+xadmin实现异步任务和定时任务
Django+Celery+xadmin实现异步任务和定时任务 关注公众号"轻松学编程"了解更多. 一.celery介绍 1.简介 [官网]http://www.celerypro ...
- django celery redis 定时任务
0.目的 在开发项目中,经常有一些操作时间比较长(生产环境中超过了nginx的timeout时间),或者是间隔一段时间就要执行的任务. 在这种情况下,使用celery就是一个很好的选择. cele ...
- 打通前后端全栈开发node+vue进阶【课程学习系统项目实战详细讲解】(3):用户添加/修改/删除 vue表格组件 vue分页组件
第三章 建议学习时间8小时 总项目预计10章 学习方式:详细阅读,并手动实现相关代码(如果没有node和vue基础,请学习前面的vue和node基础博客[共10章] 演示地址:后台:demo ...
- django+celery+redis实现运行定时任务
0.目的 在开发项目中,经常有一些操作时间比较长(生产环境中超过了nginx的timeout时间),或者是间隔一段时间就要执行的任务. 在这种情况下,使用celery就是一个很好的选择. cele ...
随机推荐
- Python3_python2打包exe文件
最近要把绿盟报告导出脚本打包成一个exe,原本是一个py2的文件Vulreport.py,我做了如下步骤. 1.py2topy3 Python3 2to3.py -w Vulreport.py 2.p ...
- Web前端入门第 43 问:CSS 动画之过渡属性 transition 改变用户体验
CSS3 规范出现之前,要实现一个动画效果那必须借助 JavaScript 的能力才够得着,所以当时的前端开发但凡听到动画交互,那眉头可就成了一个川字儿了~ transition 的出现,改变了实现动 ...
- 同余最短路&转圈背包算法学习笔记(超详细)
一.问题引入 当你想要解决一个完全背包计数问题,但是 \(M\) 的范围太大,那么你就可以使用同余最短路. 二.算法推导过程 首先对于一个完全背包计数问题,我们要知道如果 \(x\) 这个数能凑出来, ...
- 使用IDEA管理服务器Docker及远程仓库
目录 配置连接Docker服务器及远程仓库 连接服务器Docker 远程仓库(可选) IDEA管理 确保docker服务器已经开启了远程守护进程访问.[1] 配置连接Docker服务器及远程仓库 连接 ...
- Spring Boot Jpa封装快速构建Specification、OrderBy、Pageable的查询条件
1.简介 在我们使用JPA时,构建 Specification 查询条件时重复代码过多,而且需要大量的无效代码. 2.工具类提供的方法 2.1.自动构建规范 /** * 自动构建规范 * * @p ...
- AI 重塑测试,2025 年何去何从?
各位技术同仁,特别是奋斗在软件质量保障一线的朋友们,大家好! 2025 年的软件测试领域,AI 早已不是锦上添花的"时髦概念",而是决定效率.质量乃至生存空间的"核心引擎 ...
- Linux多线程-线程同步
线程同步 当多个线程同时对一个共享数据进行操作时,会导致数据竞争,下面例子展示了数据竞争的情况: 1 #include <pthread.h> 2 #include <stdio.h ...
- K8s进阶之外部访问Pod的几种方式
概述 K8s集群内部的Pod默认是不对外提供访问,只能在集群内部进行访问.这样做是为什么呢? 安全性考虑 Kubernetes设计时遵循最小权限原则,即组件仅获得完成其任务所需的最少权限.直接暴露Po ...
- B1002 写出这个数 (20 分)
描述 读入一个正整数 n,计算其各位数字之和,用汉语拼音写出和的每一位数字. 输入格式: 每个测试输入包含 1 个测试用例,即给出自然数 n 的值.这里保证 n 小于 10 100 . 输出格式: 在 ...
- 读书笔记:深度工作(deep work)
读书笔记:深度工作(deep work) 目录 读书笔记:深度工作(deep work) 第一部分:The Idea 第二部分:The Rules 准则一:工作要深入 准则二:拥抱无聊 准则三:远离社 ...