从围绕API到围绕数据-使用流式编程构建更简洁的架构
背景
在服务刚刚搭建时,通常的思维就是根据API编写业务逻辑:
// SendStream ...
func (d *Svc) SendStream(stream MyApi_data.ProxyDialOut_SendStreamServer) error {
for {
...
data, err := stream.Recv()
if err != nil {
logrus.Errorf("recv error:%v", err)
return err
}
...
// 对data做相关的操作
}
}
在服务暴露出越来越多的API后,相似的操作会越来越多。此时会进行抽象和封装,提取公共操作,例如提取函数、建立工厂等。
比如,在已有的API中添加监控统计。虽然对统计器做了抽象(对象或者函数),但可能仍然需要侵入到所有不同的API实现中。
// SendStream ...
func (d *MyApiSvc) SendStream(stream MyApi_data.ProxyDialOut_SendStreamServer) error {
for {
...
data, err := stream.Recv()
if err != nil {
logrus.Errorf("recv error:%v", err)
return err
}
...
// 对data做相关的操作
...
// 添加一个共享的监控统计器,调用上报业务,每个api都需要改动
counter.Add("MyApi", 1)
}
}
这在简单项目中无可厚非,但长此以往,随着各种功能的加入,API的业务代码会迅速臃肿起来。
后续,会发现每个API都各不相同,却又有公共部分。所以不得不写出大量形容相似的代码。这在部门大部分项目中都屡见不鲜。
究其原因,这是因为抽象层次不够造成的。
摒除以API为中心的编程模式
在网络编程中,一般会引入中间件(比如trpc的filter)来处理共有逻辑,比如鉴权,日志,panic处理等。
但中间件一般太过于抽象并不直观,使得编写调试不易。但它的思路值得借鉴。
在对业务进行思考后,突发奇想。虽然对客户端(用户)而言,每个API都是服务(消费者)。但对于具体处理而言,每个API同时也是生产者。
将每个API看成data source,生产数据(data),就是对api最底层的抽象。
在这里,引入一个简单的流式编程包go-streams(github.com/reugn/go-streams),方便快速建立流式编程的架构。
建立抽象:每个API都是datasource
每个api,都实现Source的接口,将自己收到的数据,无脑封装往下一跳怼
import "github.com/reugn/go-streams/extension"
type Source interface{
GetSource() *extension.ChanSource
}
实现抽象:为每个API服务都创建chan,这是数据源的本质
type MyApiSvc struct {
name string
ctx context.Context
ch chan any // 就是它
protocol string
}
// GetSource 实现Source接口
func (t *MyApiSvc) GetSource() *extension.ChanSource {
return extension.NewChanSource(t.ch)
}
type DataItem struct {
data any
session map[string]any
}
// SendStream ...
func (d *MyApiSvc) SendStream(stream MyApi_data.ProxyDialOut_SendStreamServer) error {
for {
...
data, err := stream.Recv()
if err != nil {
logrus.Errorf("recv error:%v", err)
return err
}
...
// 这里不对数据做任何处理,封装之后,直接丢到chan里
td := new(DataItem)
td.session = make(map[string]any)
td.session["ip"] = ip
td.session["trace_id"] = grand.S(8)
td.data = data
d.ch <- td
}
}
每个api的chan被go-streams封装为一个数据源ChanSource类型。
将各种API的原始数据封装为DataItem在流中统一处理,内置session是神来之笔。这个session会包含每条数据的个性化信息。可以由每个步骤增添并提供给下一步骤使用。
这样,在编写业务逻辑时就能站在更上层、数据的角度思考问题。
流式处理
在上面,每个数据源都已经被封装为一个ChanSource(本质是chan),现在来统一规划业务逻辑。
使用go-streams,将整个业务逻辑抽象成数据流的多个步骤:

此编程模式的特色之处在于:
- 每个步骤接收上一个节点的数据,处理之后,将数据发往下一跳。编写单一步骤的时候,只需要考虑本步骤处理的事情,思维量大大减少。
- 在单个步骤,处理是并发的,但在不同的步骤,处理是顺序的。
- 围绕数据编程,方便抽象施加统一的处理过程,比如
getParser,getSender两个工厂函数。 - 所有与主线(这里是格式转换和发送)无关的功能,以插件形式接入,在go-stream中,体现为一个步骤,不侵入已经编写好的业务逻辑。每个节点都有前驱和后继,拥有无限可能。没错,这就是
面向切面编程。也是这套系统的核心魅力所在。
source := getDataSource(ctx, cfg.Name) // cfg.Name == "MyApi",通过工厂函数载入配置,获得interface `Source`
// 调用接口
source.GetSource().Via(flow.NewMap(func(i interface{}) interface{} { // 步骤1,创建日志
// 从用户发来的每条消息都被打散成为了数据源的一条数据
msg := i.(model.*DataItem)
traceID := msg.GetSession()["trace_id"].(string)
// 从数据的session中获取数据的附加信息
tags := map[string]interface{}{
"trace_id": traceID,
"ip": msg.GetSession()["ip"],
"name": c.Name,
}
log := logrus.WithFields(tags)
// 这个步骤只是为了添加一个日志对象
return []any{msg, log}
// 使用8个协程来执行这个步骤
}, 8)).Via(flow.NewMap(func(i interface{}) interface{} { // 步骤2,解析数据
arr := i.([]any) // 这里的i是上一步骤return的数据
msg := arr[0].(*DataItem)
log := arr[1].(*logrus.Entry)
parser := getParser(cfg.Name) // 这个工厂函数是每种数据源的个性化处理。根据配置获取一个解析器
// 解析数据
data, err := parser(ctx, msg, c.Name, msg.GetSession()["ip"])
if err != nil {
log.Error(err)
return err
}
return []any{data, log}
}, 8)).Via(flow.NewMap(func(i interface{}) interface{} { // 步骤3,发送数据到下个服务
arr,ok := i.([]any) // 这里的i,就是上一步骤return的数据
if !ok{
return i // 如果上一步骤return的是error,则直接跳过不再解析
}
data := arr[0].(*MyApiData) // 这里的data,已经是上一步骤解析出来的数据
log := arr[1].(*logrus.Entry)
// 发数数据
sender := getSender(cfg.Name) // 这个工厂函数为不同的数据源分配一个发送器
sender.Send(qdata)
return i
}, 8)).Via(flow.NewMap(func(i interface{}) interface{} { // 步骤4,统计发送成功的数据量
arr, ok := i.([]any) // 这里的i,就是上一步骤return的数据
if ok{
msg := arr[0].(*DataItem)
log := arr[1].(*logrus.Entry)
// 内部统计
log.Info("send success")
controller.TraceAfter(msg.GetSession()["ip"])
}
return i
}, 8)).To(extension.NewIgnoreSink())
为什么要使用go-streams
- 库非常的简单,实际就是对go chan的封装。简单是一种美,简单的东西一般不容易出错。
- 隐含了
流式编程的主要思想,它并没有什么黑科技,但使用它会强制我们使用面向数据的,抽象的方式来思考问题。最终写出低耦合可调测的代码。这才是难能可贵的。
从围绕API到围绕数据-使用流式编程构建更简洁的架构的更多相关文章
- 文件是数据的流式IO抽象,mmap是对文件的块式IO抽象
文件是数据的流式IO抽象,mmap是对文件的块式IO抽象
- Stream流式编程
Stream流式编程 Stream流 说到Stream便容易想到I/O Stream,而实际上,谁规定“流”就一定是“IO流”呢?在Java 8中,得益于Lambda所带来的函数式编程,引入了一个 ...
- 万字详解 | Java 流式编程
概述 Stream API 是 Java 中引入的一种新的数据处理方法.它提供了一种高效且易于使用的方法来处理数据集合.Stream API 支持函数式编程,可以让我们以简洁.优雅的方式进行数据操作, ...
- 20190827 On Java8 第十四章 流式编程
第十四章 流式编程 流的一个核心好处是,它使得程序更加短小并且更易理解.当 Lambda 表达式和方法引用(method references)和流一起使用的时候会让人感觉自成一体.流使得 Java ...
- JDK8新特性(二) 流式编程Stream
流式编程是1.8中的新特性,基于常用的四种函数式接口以及Lambda表达式对集合类数据进行类似流水线一般的操作 流式编程分为大概三个步骤:获取流 → 操作流 → 返回操作结果 流的获取方式 这里先了解 ...
- golang的极简流式编程实现
传统的过程编码方式带来的弊端是显而易见,我们经常有这样的经验,一段时间不维护的代码或者别人的代码,突然拉回来看需要花费较长的时间,理解原来的思路,如果此时有个文档或者注释写的很好的话,可能花的时间会短 ...
- 【书籍知识回顾与总结-2022】Java语言重点知识-多线程编程、流式编程
一.多线程编程 二.流式编程 1.目的 简化集合和数组的操作 注意:每个流只能使用一次 2.获取流的方式 (1)单列集合:stream方法 KeySet()/values()/EntrySet() ( ...
- “流式”前端构建工具——gulp.js 简介
Grunt 一直是前端领域构建工具(任务运行器或许更准确一些,因为前端构建只是此类工具的一部分用途)的王者,然而它也不是毫无缺陷的,近期风头正劲的 gulp.js 隐隐有取而代之的态势.那么,究竟是什 ...
- java8 流式编程
为什么需要流式操作 集合API是Java API中最重要的部分.基本上每一个java程序都离不开集合.尽管很重要,但是现有的集合处理在很多方面都无法满足需要. 一个原因是,许多其他的语言或者类库以声明 ...
- 让代码变得优雅简洁的神器:Java8 Stream流式编程
原创/朱季谦 本文主要基于实际项目常用的Stream Api流式处理总结. 因笔者主要从事风控反欺诈相关工作,故而此文使用比较熟悉的三要素之一的[手机号]黑名单作代码案例说明. 我在项目当中,很早就开 ...
随机推荐
- 什么样的AI计算框架才是受用户喜欢的?
说明,本文是个人的一些胡想. 背景: AI计算框架现在从国外的百家争鸣过度到了国内百家争鸣的局面了.在7.8年前的时候,国外的AI计算框架简直是数不胜数,从14.15年前Nvidia公司的显卡需要手动 ...
- 有没有使用过MindSpore的,体验怎么样啊?
看到了一个帖子: https://www.zhihu.com/question/386352303/answer/3160948468 ================================ ...
- 【转载】 Makefile的静态模式%.o : %.c
版权声明:本文为CSDN博主「猪哥-嵌入式」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明.原文链接:https://blog.csdn.net/u012351051 ...
- 根据域名获取IP
/*************************************************************************************************** ...
- Linux统计文件目录下文件的数目命令
Linux下有三个命令:ls.grep.wc.通过这三个命令的组合可以统计目录下文件及文件夹的个数. 1.ls -l | grep "^-" | wc -l:统计当前目录下文件的个 ...
- TCP/TP协议栈(逐渐更新版)
TCP/IP协议栈 应用层 DNS协议 传输层 TCP协议 TCP协议报文结构 源端口 目的端口 序列号 确认号 头长度header length or data offset 保留字段reserve ...
- 推荐一款开源一站式SQL审核查询平台!功能强大、安全可靠!
1.前言 在当今这个数据驱动的时代,数据库作为企业核心信息资产的载体,其重要性不言而喻.随着企业业务规模的不断扩大,数据库的数量和种类也日益增多,这对数据库的管理与运维工作提出了前所未有的挑战.在这样 ...
- CamoTeacher:玩转半监督伪装物体检测,双一致性动态调整样本权重 | ECCV 2024
论文提出了第一个端到端的半监督伪装目标检测模型CamoTeacher.为了解决半监督伪装目标检测中伪标签中存在的大量噪声问题,包括局部噪声和全局噪声,引入了一种名为双旋转一致性学习(DRCL)的新方法 ...
- C语言linux系统fork函数
References: c语言fork函数 linux中fork()函数详解 一.fork函数简介 作用 在linux下,C语言创建进程用fork函数.fork就是从父进程拷贝一个新的进程出来,子进程 ...
- Angular Material 18+ 高级教程 – CDK Accessibility の Focus
介绍 CDK Focus 是对原生 DOM focus 的上层封装和扩展. Focus Origin 原生 DOM focus 我们只能知道 element 被 focus 了,但是无法知道它是怎么被 ...