title: 驾驭FastAPI多数据库:从读写分离到跨库事务的艺术

date: 2025/05/16 00:58:24

updated: 2025/05/16 00:58:24

author: cmdragon

excerpt:

在微服务架构中,FastAPI 多数据库配置管理通过独立数据存储实现隔离性、扩展性和性能优化。配置主从数据库时,使用 SQLAlchemy 创建异步引擎和会话工厂,并通过中间件实现动态数据库路由,实现读写分离。跨库事务处理采用 Saga 事务模式,确保分布式事务的一致性。以电商订单系统为例,展示了如何在 PostgreSQL、MongoDB 和 MySQL 之间进行跨库操作,并通过补偿机制处理事务失败。常见报错解决方案包括精确查询条件、正确管理会话和处理事务回滚。

categories:

  • 后端开发
  • FastAPI

tags:

  • FastAPI
  • 多数据库配置
  • 微服务架构
  • 分布式事务
  • Saga模式
  • 数据库连接池
  • 电商系统


扫描二维码

关注或者微信搜一搜:编程智域 前端至全栈交流与成长

探索数千个预构建的 AI 应用,开启你的下一个伟大创意https://tools.cmdragon.cn/

1. FastAPI多数据库配置管理实战

1.1 微服务架构下的数据库挑战

在微服务架构中,每个服务通常需要独立的数据存储。就像大型图书馆需要将不同学科的书籍分馆存放一样,电商系统可能将用户数据、订单数据、商品数据分别存储在不同数据库。这种架构带来三个核心需求:

  1. 隔离性:每个服务的数据库独立运行,避免单点故障
  2. 扩展性:不同数据库可按需选择存储引擎(如MySQL、MongoDB)
  3. 性能优化:读写分离配置可提升系统吞吐量

1.2 多数据库配置实现

以下示例展示如何在FastAPI中配置主从数据库:

# database.py
from sqlalchemy.ext.asyncio import create_async_engine, AsyncSession
from sqlalchemy.orm import sessionmaker # 主数据库配置(写操作)
MASTER_DATABASE_URL = "postgresql+asyncpg://user:password@master-host/dbname"
master_engine = create_async_engine(MASTER_DATABASE_URL, pool_size=10) # 从数据库配置(读操作)
REPLICA_DATABASE_URL = "postgresql+asyncpg://user:password@replica-host/dbname"
replica_engine = create_async_engine(REPLICA_DATABASE_URL, pool_size=20) # 创建会话工厂
MasterSession = sessionmaker(master_engine, class_=AsyncSession, expire_on_commit=False)
ReplicaSession = sessionmaker(replica_engine, class_=AsyncSession, expire_on_commit=False)

关键配置参数说明:

  • pool_size:连接池大小,根据服务负载调整
  • max_overflow:允许超出连接池数量的临时连接
  • pool_timeout:获取连接的超时时间(秒)

1.3 动态数据库路由

通过中间件实现读写分离:

# dependencies.py
from fastapi import Request, Depends
from database import MasterSession, ReplicaSession async def get_db(request: Request):
"""智能路由数据库连接"""
# 写操作路由到主库
if request.method in ['POST', 'PUT', 'DELETE']:
db = MasterSession()
else: # 读操作使用从库
db = ReplicaSession() try:
yield db
finally:
await db.close() # 在路由中使用
@app.post("/orders")
async def create_order(
order: OrderSchema,
db: AsyncSession = Depends(get_db)
):
# 业务逻辑

2. 跨库事务处理方案

2.1 分布式事务的挑战

当订单服务需要同时更新订单库和扣减库存库时,传统ACID事务不再适用。这就像需要同时在两个不同银行账户之间转账,必须保证要么全部成功,要么全部失败。

2.2 Saga事务模式实现

# services/transaction_coordinator.py
from typing import List
from fastapi import HTTPException class SagaCoordinator:
def __init__(self):
self.compensation_actions = [] async def execute_transaction(self, steps: List[callable]):
"""执行Saga事务"""
try:
for step in steps:
await step()
except Exception as e:
await self.compensate()
raise HTTPException(500, "Transaction failed") async def compensate(self):
"""补偿操作执行"""
for action in reversed(self.compensation_actions):
try:
await action()
except Exception as compen_e:
# 记录补偿失败日志
logger.error(f"Compensation failed: {compen_e}") # 使用示例
async def create_order_transaction():
coordinator = SagaCoordinator() async def deduct_inventory():
# 预留库存
coordinator.compensation_actions.append(restore_inventory) async def create_order_record():
# 创建订单记录
coordinator.compensation_actions.append(delete_order_record) await coordinator.execute_transaction([
deduct_inventory,
create_order_record
])

3. 企业级案例:电商订单系统

3.1 场景描述

用户下单时需要同时操作:

  • 订单数据库(PostgreSQL)
  • 库存数据库(MongoDB)
  • 用户积分数据库(MySQL)

3.2 完整实现代码

# models.py
from pydantic import BaseModel class OrderCreate(BaseModel):
user_id: int
product_id: str
quantity: int # services/order_service.py
from sqlalchemy import text
from motor.motor_asyncio import AsyncIOMotorClient class OrderService:
def __init__(self):
# 初始化各数据库连接
self.pg_pool = MasterSession
self.mongo_client = AsyncIOMotorClient(MONGO_URI)
self.mysql_pool = create_async_engine(MYSQL_URI) async def create_order(self, order_data: OrderCreate):
"""创建订单事务"""
async with self.pg_pool() as pg_session,
self.mysql_pool.begin() as mysql_conn:
# 步骤1:扣减MySQL库存
mysql_update = text("""
UPDATE inventory
SET stock = stock - :quantity
WHERE product_id = :product_id
AND stock >= :quantity
""")
await mysql_conn.execute(
mysql_update,
product_id=order_data.product_id,
quantity=order_data.quantity
) # 步骤2:创建PostgreSQL订单
pg_insert = text("""
INSERT INTO orders (user_id, product_id, quantity)
VALUES (:user_id, :product_id, :quantity)
""")
await pg_session.execute(pg_insert, order_data.dict()) # 步骤3:更新MongoDB用户行为
mongo_db = self.mongo_client.user_behavior
await mongo_db.events.insert_one({
"user_id": order_data.user_id,
"event_type": "order_created",
"timestamp": datetime.now()
}) # 提交PostgreSQL事务
await pg_session.commit()

课后Quiz

问题1: 当使用多个数据库时,如何保证跨库查询的事务一致性?

A. 使用数据库自带的分布式事务功能

B. 采用最终一致性模式配合补偿机制

C. 强制所有操作使用同个数据库

D. 增加重试机制自动处理失败

答案: B

解析: 在微服务架构中,不同服务通常使用不同数据库实例,传统ACID事务难以实施。采用Saga模式等最终一致性方案,配合补偿事务(如订单取消时的库存回补),是更可行的解决方案。


常见报错解决方案

错误1: MultipleResultsFound: Multiple rows were found when one was required

原因: 查询语句返回了多个结果,但期望单个结果

解决:

  1. 检查查询条件是否足够精确
  2. 使用.first()代替.one()
  3. 添加LIMIT 1子句

错误2: InterfaceError: Connection already closed

原因: 数据库连接过早关闭

预防:

  1. 使用上下文管理器管理会话
  2. 检查连接池配置
  3. 增加连接存活检测
# 正确使用方式
async def get_db():
async with Session() as session:
yield session

错误3: DBAPIError: Can't reconnect until invalid transaction is rolled back

原因: 未正确处理事务回滚

解决:

  1. 在异常处理中添加显式回滚
  2. 设置事务自动回滚
async def safe_transaction():
async with session.begin():
try:
# 业务操作
await session.commit()
except:
await session.rollback()
raise

余下文章内容请点击跳转至 个人博客页面 或者 扫码关注或者微信搜一搜:编程智域 前端至全栈交流与成长,阅读完整的文章:驾驭FastAPI多数据库:从读写分离到跨库事务的艺术 | cmdragon's Blog

往期文章归档:

驾驭FastAPI多数据库:从读写分离到跨库事务的艺术的更多相关文章

  1. 利用oneproxy部署mysql数据库的读写分离

    实验系统:CentOS 6.6_x86_64 实验前提:防火墙和selinux都关闭 实验说明:本实验共有4台主机,IP分配如拓扑 实验软件:mariadb-10.0.20 oneproxy-rhel ...

  2. MySQL搭建主从数据库 实现读写分离

    首先声明,实际生产中,网站为了提高用户体验,性能等,将数据库实现读写分离是有必要的,我们让主数据库去写入数据,然后当用户查询的时候,然后在从数据库读取数据,故能减轻数据库的压力,实现良好的用户体验! ...

  3. Mycat - 实现数据库的读写分离与高可用

    前言 开心一刻 上语文课,不小心睡着了,坐在边上的同桌突然叫醒了我,并小声说道:“读课文第三段”.我立马起身大声读了起来.正在黑板写字的老师吓了一跳,老师郁闷的看着我,问道:“同学有什么问题吗?”,我 ...

  4. 基于 EntityFramework 的数据库主从读写分离服务插件

    基于 EntityFramework 的数据库主从读写分离服务插件 1. 版本信息和源码 1.1 版本信息 v1.01 beta(2015-04-07),基于 EF 6.1 开发,支持 EF 6.1 ...

  5. 基于 EntityFramework 的数据库主从读写分离架构 - 目录

    基于 EntityFramework 的数据库主从读写分离架构       回到目录,完整代码请查看(https://github.com/cjw0511/NDF.Infrastructure)中的目 ...

  6. 基于 EntityFramework 的数据库主从读写分离架构(1) - 原理概述和基本功能实现

        回到目录,完整代码请查看(https://github.com/cjw0511/NDF.Infrastructure)中的目录:      src\ NDF.Data.EntityFramew ...

  7. 如何轻松实现MySQL数据库的读写分离和负载均衡?

    配置好了 Mysql 的主从复制结构后,我们希望实现读写分离,把读操作分散到从服务器中,并且对多个从服务器能实现负载均衡.读写分离和负载均衡是 Mysql 集群的基础需求,MaxScale 就可以帮着 ...

  8. springboot+mybatis实现数据库的读写分离

    介绍 随着业务的发展,除了拆分业务模块外,数据库的读写分离也是常见的优化手段.方案使用了AbstractRoutingDataSource和mybatis plugin来动态的选择数据源选择这个方案的 ...

  9. 利用mysql-proxy进行mysql数据库的读写分离

    实验系统:CentOS 6.6_x86_64 实验前提:防火墙和selinux都关闭 实验说明:本实验共有4台主机,IP分配如拓扑 实验软件:mariadb-10.0.20 mysql-proxy-0 ...

  10. sql server 本地复制订阅 实现数据库服务器 读写分离(转载)

    转载地址:http://www.cnblogs.com/echosong/p/3603270.html 再前段echosong 写了一遍关于mysql 数据同步实现业务读写分离的文章,今天咱们来看下S ...

随机推荐

  1. Linux 宝塔常用命令教程

    一.引言 在 Linux 服务器管理中,宝塔面板是一款非常实用的工具.然而,了解一些相关的命令可以让我们在特定情况下更高效地进行操作和管理.本文将为您介绍一些常用的 Linux 宝塔相关命令. 二.安 ...

  2. 傻妞教程——对接QQ频道机器人

    安装插件 前往傻妞插件市场安装QQ频道机器人插件,基于Node开发. 申请机器人 使用前请先确保已在机器人平台创建机器人 (opens new window),具体创建教程在超链接里面有,根据教程图以 ...

  3. IDEA - 文件上方的文档注释如何自定义

    1.在设置中打开文件和代码模板,根据描述中的参考信息进行自定义配置 File > Settings > Editor > File and Code Templates 2.配置完成 ...

  4. 大量小文件不适合存储于HDFS的原因

    1.小文件过多,会过多占用namenode的内存,并浪费block. - 文件的元数据(包括文件被分成了哪些blocks,每个block存储在哪些服务器的哪个block块上),都是存储在namenod ...

  5. LCP 06. 拿硬币

    地址:https://leetcode-cn.com/problems/na-ying-bi/ <?php /** * Class Solution * 桌上有 n 堆力扣币,每堆的数量保存在数 ...

  6. Pycharm pull 报错“Pull Failed: refusing to merge unrelated histories”

    分析: 在github已将建立仓库 pycharm clone到本地 pycharm pull 在第3步报错 "Pull Failed: refusing to merge unrelate ...

  7. python 打开yaml文件提示Empty test suite.

    网上方案: 我自己: 将test改为其他名称开头即可 读取成功

  8. 关于computed

    前言: 前言就是有了前几篇的基础对于vue相应式原理的初步了解之后,再去看这两个东西会方便很多.写这篇文章是为了一个梳理,还有一些其他的原因,年底再说. 先看computed computed是在in ...

  9. vue 保留两位小数

    前言 有时候我们需要对各种数值进行保留位数,以便于更好的展示. Html部分 template中这样使用,需要处理的字段名,再加上过滤器方法 <div class="text prim ...

  10. phpstudy安装redis扩展 windows安装redis扩展

    1.首先查看自己本地环境的php版本信息: 执行phpinfo(),显示php相关信息 2.下载所需的扩展 php redis扩展下载地址 windows上,php开启扩展需要下载ddl 这里要注意的 ...