python分布式事务方案(一)tcc

随着单体应用的拆分以及服务化的流行,现在分布式事务已经比较常见,分布式事务理论ACID、CAP、BASE等我就不说了,现在就直接说一下一种常见的解决方案-tcc
TCC 其实就是采用的补偿机制,其核心思想是:针对每个操作,都要注册一个与其对应的确认和补偿(撤销)操作。它分为三个阶段:

  • Try 阶段主要是对业务系统做检测及资源预留
  • Confirm 阶段主要是对业务系统做确认提交,Try阶段执行成功并开始执行 Confirm阶段时,默认 Confirm阶段是不会出错的。即:只要Try成功,Confirm一定成功。
  • Cancel 阶段主要是在业务执行错误,需要回滚的状态下执行的业务取消,预留资源释放。

优点: 跟和两阶段提交比起来,实现以及流程相对简单了一些,但数据的一致性比2PC也要差一些

缺点: 缺点还是比较明显的,在2,3步中都有可能失败。TCC属于应用层的一种补偿方式,所以需要程序员在实现的时候多写很多补偿的代码,在一些场景中,一些业务流程可能用TCC不太好定义及处理。

下面介绍下我们应用的一种场景,有一个运维系统需要运用到zabbix,而运维系统拆分出了一个配置中心,下面是子系统依赖图

在配置告警策略时需要调用zabbix接口

这时就涉及到一个分布式事务。由于我们这里只涉及到两个事务,所以我这里就写了一个zabbix代理client,来作为事务协调器

class ZabbixClientProxy(object):
'''
zabbix client simple proxy
'''
client = models.get_zbx_client() def __init__(self):
self.create_triggers = list()
self.update_triggers = list()
self.delete_triggers = list()
self.update_macros = list() def trigger_create(self, name, expression,uuid):
try:
trigger = self.client.hosts.trigger_create(name, expression, 1)
trigger["uuid"]=uuid
self.create_triggers.append(trigger)
logger.debug("trigger_create " + name)
return trigger
except Exception, e:
logger.error("trigger_create fail,cause by " + e.message)
raise def trigger_update(self, triggerid, name, expression,uuid):
try:
logger.debug("trigger_update " + name)
old_trigger = self.client.hosts.trigger_get(triggerid)
update_result = self.client.hosts.trigger_update(
triggerid, name=name, expression=expression, priority=1, enable=True)
old_trigger["uuid"]=uuid
logger.debug(old_trigger)
self.update_triggers.append(old_trigger)
return update_result
except Exception, e:
logger.error("trigger_update fail,cause by " + e.message) def trigger_delete(self, triggerid,uuid):
try:
logger.debug("trigger_delete " + triggerid)
old_trigger = self.client.hosts.trigger_get(triggerid)
delete_result = self.client.hosts.trigger_delete(triggerid)
old_trigger["uuid"]=uuid
self.delete_triggers.append(old_trigger)
return delete_result
except Exception, e:
logger.error("trigger_delete fail,cause by " + e.message) def update_trigger_macro(self, uuid, item_threshold, alert_duration):
all_hmacros = self.get_macro_by_name(uuid)
if all_hmacros and len(all_hmacros) > 2:
self.update_macro(all_hmacros, "DISK_USER_MAX", item_threshold)
self.update_macro(all_hmacros, "DISK_USER_TIMES", str(alert_duration) + "m")
self.update_macro(all_hmacros, "DISK_USER_ENABLE", 1)
else:
self.create_macro("DISK_USER_MAX", item_threshold, uuid)
self.create_macro("DISK_USER_TIMES", str(alert_duration) + "m", uuid)
self.create_macro("DISK_USER_ENABLE", 1, uuid) def stop_trigger(self, assets):
if assets:
for asset in assets:
if asset.host is None:
continue
all_hmacros = self.get_macro_by_name(asset.host.uuid)
if all_hmacros and len(all_hmacros) > 2:
self.update_macro(all_hmacros, "DISK_USER_ENABLE", 0)
else:
self.create_macro("DISK_USER_MAX", 80, asset.host.uuid)
self.create_macro("DISK_USER_TIMES", "5m", asset.host.uuid)
self.create_macro("DISK_USER_ENABLE", 0, asset.host.uuid) def get_macro_by_name(self, uuid):
return self.client.macros.list(uuid) def update_macro(self, all_hmacros, macro_name, value):
for macro in all_hmacros:
if macro['macro'] == ('{$' + macro_name + '}'):
try:
self.client.macros.update(macro['hostmacroid'], macro=macro_name, value=value)
macro['name'] = macro_name
self.update_macros.append(macro)
logger.debug('update_macro ' + macro_name + ' to ' + str(value))
except Exception, e:
logger.error('update_macro ' + macro_name + ' fail,case by ' + e.message) def create_macro(self, macro_name, value, uuid):
try:
hostid = self.client.macros._get_hostid(uuid)
hmacro = self.client.macros.create(macro_name, value, hostid)
logger.debug("create_macro success,macro_name:" + macro_name + ",value:" + str(value))
except Exception, e:
logger.error("create_macro fail,cause by " + e.message) def trigger_get(self, triggerid):
return self.client.hosts.trigger_get(triggerid) def trigger_list(self, hostid):
return self.client.hosts.trigger_list(hostid) def item_list(self, uuid):
return self.client.hosts.item_list(uuid) def rollback(self):
logger.debug("start rollback")
# rollback create
for trigger in self.create_triggers:
try:
self.client.hosts.trigger_delete(trigger["triggerid"])
logger.debug('rollback_create_trigger ' + trigger["name"])
except Exception, e:
logger.error('rollback_create_trigger ' + trigger["triggerid"] + ' fail,case by ' + str(e.message))
self.create_triggers = []
for trigger in self.update_triggers:
try:
expression=trigger["expression"].replace(trigger['uuid']+']','{HOST.HOST}]')
self.client.hosts.trigger_update(trigger["triggerid"], name=trigger["name"],
expression=expression, priority=1, enable=True)
logger.debug('rollback_update_trigger ' + trigger["name"]) except Exception, e:
logger.error('rollback_update_trigger ' + trigger["triggerid"] + ' fail,case by ' + str(e.message))
self.update_triggers = []
for trigger in self.delete_triggers:
try:
expression=trigger["expression"].replace(trigger['uuid']+']','{HOST.HOST}]')
new_trigger = self.client.hosts.trigger_create(trigger["name"], expression, 1)
logger.debug(new_trigger)
logger.debug('rollback_delete_trigger ' + trigger["name"])
# 更新数据中的zabbix trigger id
alert_models.ConditionTrigger.objects.filter(zabbix_trigger_id=trigger["triggerid"]).update(
zabbix_trigger_id=new_trigger["triggerid"])
except Exception, e:
logger.error('rollback_delete_trigger ' + trigger["triggerid"] + ' fail,case by ' + str(e.message))
self.delete_triggers = [] for macro in self.update_macros:
try:
self.client.macros.update(macro['hostmacroid'], macro=macro['name'], value=macro['value'])
except Exception, e:
logger.error('rollback_update_macro ' + macro['name'] + ' fail,case by ' + str(e.message))
logger.debug("end rollback")

事务成功,则提交本地事务,如果失败则调用rollback

def create(self, request, *args, **kwargs):
'''
policy add
'''
assets = request.data["data"]
client = ZabbixClientProxy()
try:
with transaction.atomic():
#save policy
#将client作为参数,对主机、监控项、触发器进行增删改
except rest_framework_serializers.ValidationError, e:
logger.exception(e)
client.rollback()
raise

这样做还有一个问题就是,在回滚中如果网络突然断了这时会回滚失败,这里我们记录了日志,后面我们会通过扫描日志来做到最终一致性,这里我们后面坐了补偿,下一次修改时会自动修正回滚失败问题。

python分布式事务方案(一)tcc的更多相关文章

  1. Dubbo学习系列之十五(Seata分布式事务方案TCC模式)

    上篇的续集. 工具: Idea201902/JDK11/Gradle5.6.2/Mysql8.0.11/Lombok0.27/Postman7.5.0/SpringBoot2.1.9/Nacos1.1 ...

  2. Dubbo学习系列之十四(Seata分布式事务方案AT模式)

    一直说写有关最新技术的文章,但前面似乎都有点偏了,只能说算主流技术,今天这个主题,我觉得应该名副其实.分布式微服务的深水区并不是单个微服务的设计,而是服务间的数据一致性问题!解决了这个问题,才算是把分 ...

  3. [转帖]深度剖析一站式分布式事务方案 Seata-Server

    深度剖析一站式分布式事务方案 Seata-Server https://www.jianshu.com/p/940e2cfab67e 金融级分布式架构关注 22019.04.10 16:59:14字数 ...

  4. 对比7种分布式事务方案,还是偏爱阿里开源的Seata,真香!(原理+实战)

    前言 这是<Spring Cloud 进阶>专栏的第六篇文章,往期文章如下: 五十五张图告诉你微服务的灵魂摆渡者Nacos究竟有多强? openFeign夺命连环9问,这谁受得了? 阿里面 ...

  5. ebay分布式事务方案中文版

    http://cailin.iteye.com/blog/2268428 不使用分布式事务实现目的  -- ibm https://www.ibm.com/developerworks/cn/clou ...

  6. 分布式事务(2)---TCC理论

    分布式事务(2)---TCC理论 上篇讲过有关2PC和3PC理论知识,博客:分布式事务(1)---2PC和3PC理论 我的理解:2PC.3PC还有TCC都蛮相似的.3PC大致是把2PC的第一阶段拆分成 ...

  7. 分布式事务之:TCC (Try-Confirm-Cancel) 模式

    在当前如火如荼的互联网浪潮下,如何应对海量数据.高并发成为大家面临的普遍难题.广大IT公司从以往的集中式网站架构,纷纷转向分布式的网站架构,随之而来的就是进行数据库拆分和应用拆分,如何在跨数据库.跨应 ...

  8. 分布式事务专题笔记(三)分布式事务解决方案之TCC(三阶段提交)

    个人博客网:https://wushaopei.github.io/    (你想要这里多有) 1.什么是TCC事务 TCC是Try.Confifirm.Cancel三个词语的缩写,TCC要求每个分支 ...

  9. 分析 5种分布式事务方案,还是选了阿里的 Seata(原理 + 实战)

    好长时间没发文了,最近着实是有点忙,当爹的第 43 天,身心疲惫.这又赶上年底,公司冲 KPI 强制技术部加班到十点,晚上孩子隔两三个小时一醒,基本没睡囫囵觉的机会,天天处于迷糊的状态,孩子还时不时起 ...

  10. 如何选择分布式事务形态(TCC,SAGA,2PC,补偿,基于消息最终一致性等等)

    各种形态的分布式事务 分布式事务有多种主流形态,包括: 基于消息实现的分布式事务 基于补偿实现的分布式事务(gts/fescar自动补偿的形式) 基于TCC实现的分布式事务 基于SAGA实现的分布式事 ...

随机推荐

  1. poj1163 the triangle 题解

    Description 7 3 8 8 1 0 2 7 4 4 4 5 2 6 5 (Figure 1) Figure 1 shows a number triangle. Write a progr ...

  2. BufferCache的简单理解

    对于磁盘和文件系统来讲 Buffer对应磁盘数据的缓存,用于读或写. Cache对应文件数据的页缓存,用于读或写. Buffer可以用来聚合多个写操作,Cache则可以理解为预读操作,文件系统通过这两 ...

  3. 从零开始带你上手体验Sermant自定义插件开发

    本文分享自华为云社区<Sermant自定义插件开发上手体验>,作者:华为云开源. 一.研究缘由 由于目前我们所处的行业是汽车行业,项目上进行云服务的迁移时使用到了Sermant中的相关插件 ...

  4. Spring的三种依赖注入的方式

    1.什么是依赖注入 依赖注入(Dependency Injection,简称DI),是IOC的一种别称,用来减少对象间的依赖关系. 提起依赖注入,就少不了IOC. IOC(Inversion of C ...

  5. Salt安装部署

    Salt安装部署 一:salt简介 ​ 早期运维人员会根据自己的生产环境来写特定脚本完成大量重复性工作,这些脚本复杂且难以维护.系统管理员面临的问题主要是1.系统配置管理,2.远程执行命令,因此诞生了 ...

  6. .NET Framework 4 请求https接口

    using System; using System.Collections.Generic; using System.IO; using System.Linq; using System.Net ...

  7. FFmpeg开发笔记(三十八)APP如何访问SRS推流的RTMP直播地址

    ​<FFmpeg开发实战:从零基础到短视频上线>一书在第10章介绍了轻量级流媒体服务器MediaMTX,通过该工具可以测试RTSP/RTMP等流媒体协议的推拉流.不过MediaMTX的功能 ...

  8. 解决方案 | Adobe Acrobat XI Pro 右键菜单“在Acrobat中合并文件”丢失的最佳修复方法

    1.问题 Adobe Acrobat XI Pro右键菜单"转换为Adobe PDF"与"在Acrobat中合并文件" 不见了. 2.解决方案 桌面左下角搜索& ...

  9. JavaScript 监听组合按键

    JavaScript监听组合按键   by:授客 QQ:1033553122 1.   思路 如图,通过监听并打印键盘keydown事件,得到图示内容,观察发现, 当按下的组合键包含Ctrl键时,ct ...

  10. 制作KubeVirt镜像

    目录 制作KubeVirt镜像 1. 准备磁盘文件 2. 编写Dockerfile 3. 构建镜像 4. 上传镜像到仓库(可选) 5. 导出镜像 6. 虚拟机yaml文件 7. 启动虚拟机 8. 启动 ...