基础


有多种类型的事件可以触发信号,你可以连接到这些信号,使得在他们触发的时候执行操作。

连接到 after_task_publish 信号的示例:

from celery.signals import after_task_publish

@after_task_publish.connect
def task_sent_handler(sender=None, headers=None, body=None, **kwargs):
# information about task are located in headers for task messages
# using the task protocol version 2.
info = headers if 'task' in headers else body
print('after_task_publish for task id {info[id]}'.format(
info=info,
))

一些信号还带有发送者,你可以用来过滤信号。例如,after_task_publish信号使用任务名称作为发送者,所以通过给connect 方法提供 sender 参数,你可以使你的处理函数在每个名为 proj.tasks.add的任务发布的时候被回调:

@after_task_publish.connect(sender='proj.tasks.add')
def task_sent_handler(sender=None, headers=None, body=None, **kwargs):
# information about task are located in headers for task messages
# using the task protocol version 2.
info = headers if 'task' in headers else body
print('after_task_publish for task id {info[id]}'.format(
info=info,
))

信号的实现同 django.core.dispatch。所以默认情况下其他关键字参数(例如: signal)都被传递给所有信号处理函数。

信号处理的最佳实践是接收任意关键字参数(即:**kwargs)。这样的话当使用新的Celery 版本时只要添加新的参数而不需要更改你的代码。

信号


任务信号


  • before_task_publish
    3.1版本新特性。

任务被发布之前分发的。注意它是在发送任务的进程中执行。
发送者是被发送的任务的名称。

提供的参数:

- body

任务消息体

这是一个包含任务消息字段的映射,查看 Version2 和 Version1 获取可以定义的可用字段的说明

- exchange

消息交换器的名称或者对象实例

- routing_key

发送消息时使用的路由键

- headers

应用头映射 (可以修改)

- properties

消息属性 (可以修改)

- declare

消息发布前声明的实体(消息交换器、队列或者绑定,可以修改)

- retry_policy

重试选项映射。可以是 `kombu.Connection.ensure()` 方法的任意参数,可以修改
  • after_task_publish
    任务被分发到消息中间件之后。注意这是在发送任务的进程中执行。

提供的参数:

- headers

任务消息头,查看 Version2 和 Version1 获取可以定义的可用字段的说明

- body

任务消息体,查看 Version2 和 Version1 获取可以定义的可用字段的说明

- exchange

消息交换器名称或者消息交换器对象实例

- routing_key

使用的路由键
  • task_prerun

任务执行前

发送者是将要执行的任务

提供的参数:

- task_id

被执行的任务的ID

- task

被执行的任务

- args

任务位置参数

- kwargs

任务关键字参数
  • task_postrun

任务执行后分发

发送者是被执行的任务对象

提供的参数:

- task_id

被执行的任务的ID

- task

被执行的任务

- args

任务位置参数

- kwargs

任务关键字参数

- retval

任务的返回值

- state

结果状态的名称
  • task_retry

当任务将被重试时分发

发送者是任务对象

提供的参数:

- request

当前任务请求

- reason

重试的理由 (通常是一个异常实例,但总是能表示成字符串)

- einfo

详细的异常信息,包括堆栈回溯信息(一个`billiard.einfo.ExceptionInfo` 对象)
  • task_success

任务执行成功时分发

发送者是被执行的任务对象

提供的参数:

- result
任务的返回值
  • task_failure

任务失败时分发

发送者是被执行的任务对象

提供的参数:

- task_id

任务的ID

- 异常

抛出的异常实例

- args

任务调用时传递的位置参数

- kwargs

任务调用时传递的关键字参数

- traceback

堆栈回溯对象

- einfo

`billiard.einfo.ExceptionInfo` 实例对象
  • task_revoked

任务被工作单元取消或者中止时分发

提供的参数:

- request

这是一个 `Request` 实例,而不是 `task.request` 实例。当使用 prefork 池,这个信号由父进程分发,所以 `task.request` 是不可用的,也不应该使用。
取而代之,我们可以使用这个对象,因为他们有很多相同的字段。 - terminated 如果任务被中止,设置为真 - signum 用来中止任务的信号数值。如果它的值为 None,且设置了 terminated 为真,那么它的值将设置成 TERM。 - expired 如果任务过期,设置成真
  • task_unknown

当工作单元收到未注册的任务的消息

发送者是工作单元消费者

提供的参数:

- name

任务的名称

- id

消息中任务的id

- message

裸消息对象

- exc

发生的错误
  • task_rejected

当工作单元从任务队列中收到未知类型的消息

发送者是工作单元消息者

提供的参数:

- message

裸消息对象

- exc

发生的错误(如果有)

应用信号


  • import_modules

当程序(工作单元、beat、shell)导入 Include 中的模块,或者导入配置被导入时。

发送者是应用实例。

工作单元信号


  • celery_after_setup
    工作单元启动但是在执行任务之前发送的信号。者意味着任意从 celery worker -Q 声明的队列都已经启用,日志环境已经设置好,等等。

它可以用来添加除 celery worker -Q 选项声明的队列之外的自定义队列,这些自定义队列应该始终被消费。下面是给每个工作单元创建一个直接队列的示例,这些队列可以用来路由任务给指定的工作单元:

from celery.signals import celeryd_after_setup

@celeryd_after_setup.connect
def setup_direct_queue(sender, instance, **kwargs):
queue_name = '{0}.dq'.format(sender) # sender is the nodename of the worker
instance.app.amqp.queues.select_add(queue_name)

提供的参数:

  • sender
    工作单元的节点名称
  • instance
    这是要初始化的 celery.apps.worker.Worker 实例。注意,至今为止,只设置了 apphostname 属性,并且 __init__ 函数的余下部分还没有执行。
  • conf
    当前应用实例的配置。

  • celeryd_init

这是工作单元启动后发送的第一个信号。sender是工作单元的主机名,所以这个信号可以用来设置工作单元的特殊配置:

from celery.signals import celeryd_init

@celeryd_init.connect(sender='worker12@example.com')
def configure_worker12(conf=None, **kwargs):
conf.task_default_rate_limit = '10/m'

或者如果你想给多个工作单元设置配置,你连接该信号的时候可以忽略 sender 参数:

from celery.signals import celeryd_init

@celeryd_init.connect
def configure_workers(sender=None, conf=None, **kwargs):
if sender in ('worker1@example.com', 'worker2@example.com'):
conf.task_default_rate_limit = '10/m'
if sender == 'worker3@example.com':
conf.worker_prefetch_multiplier = 0

提供的参数:
  - sender
    工作单元的节点名称
  - instance
    这是要初始化的 celery.apps.worker.Worker 实例。注意,至今为止,只设置了 apphostname 属性,并且 __init__ 函数的余下部分还没有执行。
  - conf
    当前应用实例的配置。
  - options
    从命令行传递给工作单元的选项

  • worker_init
    任务开始前分发

  • worker_ready
    工作单元准备接收任务时分发

  • worker_init
    Celery 发送一个工作单元心跳时分发
    sendercelery.worker.heartbeat.Heart 实例

  • worker_shutting_down
    工作单元准备关闭进程时分发

提供的参数:
  - sig
    接收到的POSIX信号
  - how
    关闭方法,热关闭或者冷关闭
  - exitcode
    主进程退出时将使用的退出码

  • worker_process_init
    在所有池进程开始时分发

  注意这个信号绑定的处理函数不能阻塞多余4秒,否则进程会被认为开始失败而被杀死

  • worker_process_shutdown
    在所有池进程将退出前分发

  注意:不能保证这个信号一定能分发,类似于finally 块,不能保证处理函数会在关闭时进行调用,并且如果被调用也有可能中断。

提供的参数:
  - pid
    将要关闭的子进程的进程ID
  - exitcode
    子进程关闭时将使用的退出码

  • worker_shutdown
    工作单元将要关闭前分发

Beat 信号


  • beat_init
    celery beat启动时分发 ( standalone 或者 embedded)

  Sendercelery.beat.Service instance

  • beat_embedded_init
    当celery beat 作为一个嵌入式进程启动时除发送 beat_init信号外还将发送的信号

  Sendercelery.beat.Service instance

Eventlet 信号


  • eventlet_pool_started
    eventlet pool 启动时分发

  Sendercelery.concurrency.eventlet.TaskPool实例

  • eventlet_pool_preshutdown
    当工作单元关闭,eventlet池等待剩余工作进程时发送

  Sendercelery.concurrency.eventlet.TaskPool实例

  • eventlet_pool_postshutdown
    当池已经被join,并且工作单元将关闭时分发

  Sendercelery.concurrency.eventlet.TaskPool 实例

  • eventlet_pool_apply
    当任务应用到池时分发

  Sendercelery.concurrency.eventlet.TaskPool 实例

提供的参数:

- target

    目标函数

- args

    位置参数

- kwargs

    关键字参数

日志信号


  • setup_logging
    如果这个信号被连接,celery不会配置日志器,所以你可以使用你自己的日志配置完全覆盖原来配置。

如果你想修改celery设置的配置,你可以使用 after_setup_loggerafter_setup_task_logger signals 信号

提供的参数:

- loglevel

    日志对象的级别

- logfile
日志文件的名称 - format 日志格式字符串 - colorize 声明日志消息是否标颜色
  • after_setup_logger
    每个全局日志器设置后分发(不是任务日志器)。用来修改日志配置。

提供的参数:

- logger

    日志器对象

- loglevel

    日志对象的级别

- logfile

    日志文件名称

- format

    日志格式字符串

- colorize

    声明日志是否标颜色
  • after_setup_task_logger
    每个任务日志器设置后分发。用来修改日志配置

提供的参数:

- logger

    日志器对象

- loglevel

    日志对象的级别

- logfile

    日志文件名称

- format

    日志格式字符串

- colorize

    声明日志是否标颜色

命令信号


  • user_preload_options
    Celery 命令行程序完成解析预处理选项时该信号将被分发。

它可以用来给 celery 命令添加附加的命令行参数:

from celery import Celery
from celery import signals
from celery.bin.base import Option app = Celery()
app.user_options['preload'].add(Option(
'--monitoring', action='store_true',
help='Enable our external monitoring utility, blahblah',
)) @signals.user_preload_options.connect
def handle_preload_options(options, **kwargs):
if options['monitoring']:
enable_monitoring()

SenderCommand实例,并且值依赖于调用的程序(例如: 对于总命令,他将是一个 CeleryCommand 对象)

提供的参数:

- app
应用实例
- options
被解析的预加载选项的映射(以及默认值)

废弃的信号


    • task_sent
      这个信号已经被废弃,请使用 after_task_publish

转自:https://blog.csdn.net/libing_thinking/article/details/78606458

Celery-4.1 用户指南: Signals (信号)的更多相关文章

  1. Java_并发工具包 java.util.concurrent 用户指南(转)

    译序 本指南根据 Jakob Jenkov 最新博客翻译,请随时关注博客更新:http://tutorials.jenkov.com/java-util-concurrent/index.html.本 ...

  2. (转)并发编程 – Concurrent 用户指南

    原文出处: 高广超 译序 本指南根据 Jakob Jenkov 最新博客翻译,请随时关注博客更新:http://tutorials.jenkov.com/java-util-concurrent/in ...

  3. 【翻译】Flume 1.8.0 User Guide(用户指南) Sink

    翻译自官网flume1.8用户指南,原文地址:Flume 1.8.0 User Guide 篇幅限制,分为以下5篇: [翻译]Flume 1.8.0 User Guide(用户指南) [翻译]Flum ...

  4. Celery-4.1 用户指南: Calling Tasks(调用任务)

    基础 本文档描述 Celery 中任务实例和 Canvas 使用的统一 “Calling API”. API 中定义了一个执行选项的标准集,以及三个方法: - apply_async(args[, k ...

  5. flume1.9 用户指南(中文版)

    概述 Apache Flume是一个分布式,可靠且可用的系统,用于有效地从许多不同的source收集,聚合和移动大量日志数据到集中式数据存储. Apache Flume的使用不仅限于日志数据聚合.由于 ...

  6. Gradle用户指南(1)-Gradle安装

    前置条件 Gradle 需要 Java JDK 或者 JRE,版本是 6 及以上.Gradle 将会装载自己的 Groovy 库,因此,Groovy 不需要被安装.任何存在的 Groovy 安装都会被 ...

  7. Gradle用户指南(章9:Groovy快速入门)

    Gradle用户指南(章9:Groovy快速入门) 你可以使用groovy插件来构建groovy项目.这个插件继承了java插件的功能,且扩展了groovy编译.你的项目可以包含groovy代码.ja ...

  8. Gradle用户指南

    下载安装gradle 2.1 下载地址:http://www.gradle.org/learn 安装先决条件:gradle安装需要1.6或者更高版本的jdk(jre)(可以使用java –versio ...

  9. scons用户指南翻译(附gcc/g++参数详解)

    scons用户指南 翻译 http://blog.csdn.net/andyelvis/article/category/948141 官网文档 http://www.scons.org/docume ...

随机推荐

  1. margin和text-align以及align

    margin和text-align是css样式,align是html的 <style> .test { width: 400px; height: 200px; background: g ...

  2. setup in xunit

    https://xunit.github.io/docs/shared-context Shared Context between Tests It is common for unit test ...

  3. Regular Expression Matching,regex,正则表达式匹配,利用动态规划

    问题描述:Implement regular expression matching with support for '.' and '*'. '.' Matches any single char ...

  4. Flume的Avro Sink和Avro Source研究之二 : Avro Sink

    啊,AvroSink要复杂好多:< 好吧,先确定主要问题: AvroSink为啥这么多代码?有必要吗?它都有哪些逻辑需要实现? 你看,avro-rpc-quickstart里是这么建client ...

  5. dataframe to sql

    使用pandas的to_sql时,还涉及到一些sql数据库的操作 在网上找到一段代码,很方便使用.来源:blog.csdn.net/qcyfred/article/details/78085243?l ...

  6. Windods7+Anaconda+Tensorflow安装步骤

    1.下载及安装Anaconda Anaconda是python科学计算的集成.下载Anaconda,下载地址:http://continuum.io/downloads. 由于tensorflow目前 ...

  7. [Linq] ORM

      orm  对象关系映射框架,主要将关系数据库中的数据 ,映射成应用程序的对象.表为类名,列为类的字段. ADO.NET entity framework   在ADO.NET基础上发展出来的对象关 ...

  8. javascript给输入框赋值的一个误区

    一. 错误的示范 如下代码所示,如果需要用javascript获取id为username1, password1的输入框的值,将其写入id为username2, password2的输入框,那么红线区 ...

  9. DQN 处理 CartPole 问题——使用强化学习,本质上是训练MLP,预测每一个动作的得分

    代码: # -*- coding: utf-8 -*- import random import gym import numpy as np from collections import dequ ...

  10. Mybatis_总结_05_用_Java API

    一.前言 使用 MyBatis 的主要 Java 接口就是 SqlSession.你可以通过这个接口来执行命令,获取映射器和管理事务. 二.主要类 (1)SqlSession 是由 SqlSessio ...