HI!,你好,我是zane,zanePerfor是一款我开发的一个前端性能监控平台,现在支持web浏览器端和微信小程序端。

我定义为一款完整,高性能,高可用的前端性能监控系统,这是未来会达到的目的,现今的架构也基本支持了高可用,高性能的部署。实际上还不够,在很多地方还有优化的空间,我会持续的优化和升级。

开源不易,如果你也热爱技术,拥抱开源,希望能小小的支持给个star。

项目的github地址:https://github.com/wangweianger/zanePerfor

项目开发文档说明:https://blog.seosiwei.com/performance/index.html

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。
Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 
这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 
这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 
针对于zanePerfor这样的用户访问行为,页面性能监控系统,但又要求实时处理的限制,这是一个可行的解决方案。

zanePerfor中对于kafka的应用使用了kafka-node包,并在此基础上封装了egg-kafka插件。

zanePerfor初步的探索了kafka在node.js中的应用,以下内容主要讲解kafka在zanePerfor项目中的使用方式。

如果你对在node.js中使用kafka有更多的建议和心得,也希望能跟我一起分享。

zanePerfor项目中kafka应用介绍:

启用kafka配置说明:

// config/config.default.js
// kafka 配置 (report_data_type=kafka生效)
// 配置参考 https://www.npmjs.com/package/kafka-node
config.kafka = {
client: {
kafkaHost: 'localhost:9092',
},
producer: {
web: {
topic: 'zane_perfor_web',
partition: 0, // default 0
attributes: 0, // default: 0
// timestamp: Date.now(),
},
wx: {
topic: 'zane_perfor_wx',
},
},
// consumer 和 consumerGroup消费任选其一即可
// 优先选择consumer消费,两种消费配置任留一种即可
consumer: {
web: {
topic: 'zane_perfor_web',
offset: 0, // default 0
partition: 0, // default 0
isone: false, // 此参数默认不可更改
total_limit: 10000, // 消息队列消费池限制数, 0:不限制 number: 限制条数 高并发时服务优雅降级方案
},
wx: {
topic: 'zane_perfor_wx',
isone: false,
total_limit: 10000,
},
},
consumerGroup: {
web: { // ConsumerGroup(options, topics)
topic: 'zane_perfor_web',
groupId: 'WebPerformanceGroup',
commitOffsetsOnFirstJoin: true,
},
wx: {
topic: 'zane_perfor_wx',
groupId: 'WxPerformanceGroup',
commitOffsetsOnFirstJoin: true,
},
},
};

  

配置说明:

client参数说明:

client参数即为kafka-node中的KafkaClient参数,参考地址:https://www.npmjs.com/package/kafka-node#kafkaclient

producer生产者参数说明:

producer分web端和wx端配置

producer参数为kafka-node中的send参数,参考地址:https://www.npmjs.com/package/kafka-node#sendpayloads-cb

consumer消费者参数说明:

consumer分web端和wx端配置

consumer参数为kafka-node中的consumer参数, 参考地址:https://www.npmjs.com/package/kafka-node#consumerclient-payloads-options

consumerGroup消费者参数说明:

consumerGroup分web端和wx端配置

consumerGroup参数为kafka-node中的consumerGroup参数,参考地址:https://www.npmjs.com/package/kafka-node#consumergroupoptions-topics

关于消费者说明

config配置中有consumer和consumerGroup配置,规则如下:

  • 如果consumer配置为真有限使用consumer配置
  • 如果想启用consumerGroup配置,则注释或者删除consumer配置即可

kafka生产消费逻辑实现:

核心代码实现:

一:生产者

kafka的性能非常强劲,能支持超高并发,因此所有客户端上报的信息都存储到消息队列中,限流策略只使用在消费端,生产端不做限流设置。

// app/controller/api/web/report.js
// 通过kafka 消息队列消费数据
async saveWebReportDataForKafka(query) {
// 生产者
this.app.kafka.send(
'web',
JSON.stringify(query)
); // 消费者
if (!isKafkaConsumer && !this.app.config.kafka.consumer.web.isone) {
this.ctx.service.web.reportTask.saveWebReportDatasForKafka();
isKafkaConsumer = true;
this.app.config.kafka.consumer.web.isone = true;
}
}

  

  • this.app.kafka.send是封装的插件egg-kafka中的方法,功能就是生产信息

  • if (!isKafkaConsumer && !this.app.config.kafka.consumer.web.isone)是为了保证订阅消息的方法只执行一次,后面一但有消息产生,会自动触发订阅函数进行数据消费消费。

二:消费者

// app/service/web/report_task.js
// kafka 消费信息
async saveWebReportDatasForKafka() {
if (this.kafkaConfig.consumer) {
this.app.kafka.consumer('web', message => {
this.consumerDatas(message);
});
} else if (this.kafkaConfig.consumerGroup) {
this.app.kafka.consumerGroup('web', message => {
this.consumerDatas(message);
});
}
}

  

  • this.app.kafka.consumer 单独消费,egg-kafka中暴露的方法

  • this.app.kafka.consumerGroup 以分组的方式消费消息

  • 优先使用consumer消费,其次使用consumerGroup进行消费

egg-kafka插件封装说明

为了更好、更方便的使用kafka,项目中对node-kafka进行了一层封装。

详细请参考:/lib/plugin/egg-kafka/lib/kafka.js

send代码实现如下:

send(type, data) {
assert(type, '[egg-kafka] type is must required.');
if (!data) return;
let producer = this.app.config.kafka.producer[type] || {};
let producers = [];
if (typeof (data) === 'string') {
producer.messages = data;
producers = [ producer ];
} else if (Object.prototype.toString.call(data) === '[object Object]') {
producer = Object.assign({}, producer, data);
producers = [ producer ];
} else if (Object.prototype.toString.call(data) === '[object Array]') {
for (let i = 0; i < data.length; i++) {
data[i] = Object.assign({}, producer, data[i]);
}
producers = data;
}
this.producer.send(producers, (err, data) => {
if (err) assert(err, '[egg-kafka] err. errmsg ${err}');
console.log(data);
});
}

  

send有两个参数,第一个参数type为发送类型,有web、wx两个值可以选择。

对data做了一定的判断,send调用可以有以下几种方式:

// 消息为String
this.app.kafka.send('web','hello world!');
// 消息为Object
this.app.kafka.send('web',{ topic:'test', messages:'hello world!' });
// 消息为Array
this.app.kafka.send('web',[{ topic: 'test', messages: 'hi', partition: 0}]);

  

consumer方法代码实现:

consumer(type = 'web', fn) {
assert(type, '[egg-kafka] consumers type argument must be required');
const kafkaConfig = this.app.config.kafka;
const consumer = kafkaConfig.consumer[type] || {};
const consumers = Array.isArray(consumer) ? consumer : [ consumer ];
const Consumer = kafka.Consumer;
const _consumer = new Consumer(
this.client,
consumers,
{
autoCommit: true,
}
);
_consumer.on('error', err => {
this.app.coreLogger.error(`[egg-kafka] consumer have error ${err}`);
});
_consumer.on('message', message => {
fn && fn(message);
});
}

  

consumerGroup代码实现:

consumerGroup(type = 'web', fn) {
assert(type, '[egg-kafka] consumers type argument must be required');
const kafkaConfig = this.app.config.kafka;
const kafkaHost = kafkaConfig.client.kafkaHost;
const consumerOption = kafkaConfig.consumerGroup[type] || {};
const topic = consumerOption.topic;
consumerOption.kafkaHost = kafkaHost;
const ConsumerGroup = kafka.ConsumerGroup;
const _consumer = new ConsumerGroup(consumerOption, topic);
_consumer.on('error', err => {
this.app.coreLogger.error(`[egg-kafka] consumer have error ${err}`);
});
_consumer.on('message', message => {
fn && fn(message);
});
}

  

消费限流策略:

由于kafka性能及其强悍,因此zanePerfor只对消费进行限流

 

代码实现:

设置消费池数量

// config.default.js
{
topic: 'zane_perfor_web',
offset: 0, // default 0
partition: 0, // default 0
isone: false, // 此参数默认不可更改
total_limit: 10000, // 消息队列消费池限制数, 0:不限制 number: 限制条数 高并发时服务优雅降级方案
}

  

kafka连接池数量判断

// app/service/web/report_task.js 中 getWebItemDataForKafka 方法
// kafka 连接池限制
const msgtab = query.time + query.ip;
if (this.kafkatotal && this.kafkalist.length >= this.kafkatotal) return;
this.kafkalist.push(msgtab);

  

数据消费完成之后删除消费标识

// app/service/web/report_task.js 中 getWebItemDataForKafka 方法
this.savePages(item, system.slow_page_time, () => {
// 释放消费池
const index = this.kafkalist.indexOf(msgtab);
if (index > -1) this.kafkalist.splice(index, 1);
});

  

至此实现了egg.js中对kafka的应用和封装。

node.js中kafka的封装和高并发消费限流优雅降级以及egg-kafka的封装说明的更多相关文章

  1. coding++:高并发解决方案限流技术--计数器--demo

    1.它是限流算法中最简单最容易的一种算法 计数器实现限流 每分钟只允许10个请求 第一个请求进去的时间为startTime,在startTime + 60s内只允许10个请求 当60s内超过十个请求后 ...

  2. coding++:高并发解决方案限流技术---漏桶算法限流--demo

    1.漏桶算法 漏桶作为计量工具(The Leaky Bucket Algorithm as a Meter)时,可以用于流量整形(Traffic Shaping)和流量控制(TrafficPolici ...

  3. coding++:高并发解决方案限流技术-使用RateLimiter实现令牌桶限流-Demo

    RateLimiter是guava提供的基于令牌桶算法的实现类,可以非常简单的完成限流特技,并且根据系统的实际情况来调整生成token的速率. 通常可应用于抢购限流防止冲垮系统:限制某接口.服务单位时 ...

  4. 高并发解决方案限流技术-----使用RateLimiter实现令牌桶限流

    1,RateLimiter是guava提供的基于令牌桶算法的实现类,可以非常简单的完成限流特技,并且根据系统的实际情况来调整生成token的速率.通常可应用于抢购限流防止冲垮系统:限制某接口.服务单位 ...

  5. 在node.js中,使用基于ORM架构的Sequelize,操作mysql数据库之增删改查

    Sequelize是一个基于promise的关系型数据库ORM框架,这个库完全采用JavaScript开发并且能够用在Node.JS环境中,易于使用,支持多SQL方言(dialect),.它当前支持M ...

  6. 初步揭秘node.js中的事件

    当你学习node.js的时候,Events是一个非常重要的需要理解的事情.非常多的Node对象触发事件,你能在文档API中找到很多例子.但是关于如何写自己的事件和监听,你可能还不太清楚.如果你不了解, ...

  7. 在Node.js中使用RabbitMQ系列二 任务队列

    在上一篇文章在Node.js中使用RabbitMQ系列一 Hello world我有使用一个任务队列,不过当时的场景是将消息发送给一个消费者,本篇文章我将讨论有多个消费者的场景. 其实,任务队列最核心 ...

  8. [转]在node.js中,使用基于ORM架构的Sequelize,操作mysql数据库之增删改查

    本文转自:https://www.cnblogs.com/kongxianghai/p/5582661.html Sequelize是一个基于promise的关系型数据库ORM框架,这个库完全采用Ja ...

  9. node.js中process进程的概念和child_process子进程模块的使用

    进程,你可以把它理解成一个正在运行的程序.node.js中每个应用程序都是进程类的实例对象. node.js中有一个 process 全局对象,通过它我们可以获取,运行该程序的用户,环境变量等信息. ...

  10. node.js中module模块的理解

    node.js中使用CommonJS规范实现模块功能,一个单独的文件就是一个单独的模块.通过require方法实现模块间的依赖管理. 通过require加载模块,是同步操作. 加载流程如下: 1.找到 ...

随机推荐

  1. 一文讲透 RocketMQ 消费者是如何负载均衡的

    RocketMQ 支持两种消息模式:集群消费( Clustering )和广播消费( Broadcasting ). 集群消费:同一 Topic 下的一条消息只会被同一消费组中的一个消费者消费.也就是 ...

  2. Prism Sample 18-NavigationCallback

    同17相比,在导航方法中增加了回调函数 private void Navigate(string navigatePath) { if (navigatePath != null) _regionMa ...

  3. 2022-07-27:小红拿到了一个长度为N的数组arr,她准备只进行一次修改, 可以将数组中任意一个数arr[i],修改为不大于P的正数(修改后的数必须和原数不同), 并使得所有数之和为X的倍数。

    2022-07-27:小红拿到了一个长度为N的数组arr,她准备只进行一次修改, 可以将数组中任意一个数arr[i],修改为不大于P的正数(修改后的数必须和原数不同), 并使得所有数之和为X的倍数. ...

  4. 2022-02-23:如何搭建k8s单机环境(用k3s),并且搭建dashboard?

    2022-02-23:如何搭建k8s单机环境(用k3s),并且搭建dashboard? 答案2022-02-03: 使用场景:个人电脑.需要安装虚拟机,操作系统是centos. 个人电脑上测试,不需要 ...

  5. 深度学习基础入门篇[8]::计算机视觉与卷积神经网络、卷积模型CNN综述、池化讲解、CNN参数计算

    深度学习基础入门篇[8]::计算机视觉与卷积神经网络.卷积模型CNN综述.池化讲解.CNN参数计算 1.计算机视觉与卷积神经网络 1.1计算机视觉综述 计算机视觉作为一门让机器学会如何去"看 ...

  6. 用BP软件 批量注册用户

    第五步:查看管理员后台----用户界面, 有没有批量添加进用户

  7. Java 泛型:理解和应用

    概述 泛型是一种将类型参数化的动态机制,使用得到的话,可以从以下的方面提升的你的程序: 安全性:使用泛型可以使代码更加安全可靠,因为泛型提供了编译时的类型检查,使得编译器能够在编译阶段捕捉到类型错误. ...

  8. ubuntu18 安装单机k8s v1.18.2

    背景 当我们需要对k8s进行二次开发时,k8s环境是必须的,那么在ubuntu上部署单机k8s是最方便的,便于开发调试 系统准备 本人用的是Ubuntu18,以下以此为例 部署之前,最好切换至root ...

  9. Python 列表、字典、元组的一些小技巧

    1. 字典排序 我们知道 Python 的内置 dictionary 数据类型是无序的,通过 key 来获取对应的 value.可是有时我们需要对 dictionary 中的 item 进行排序输出, ...

  10. htop 和 bashtop 的一些不足

    htop 和 bashtop 都是 Linux 资源监视器中非常好用的工具,尤其对于展示当前 Linux 操作系统的处理器.内存.硬盘.网络和进程等各项资源的使用情况与状态.但它们都有一个问题,就是当 ...