HI!,你好,我是zane,zanePerfor是一款我开发的一个前端性能监控平台,现在支持web浏览器端和微信小程序端。

我定义为一款完整,高性能,高可用的前端性能监控系统,这是未来会达到的目的,现今的架构也基本支持了高可用,高性能的部署。实际上还不够,在很多地方还有优化的空间,我会持续的优化和升级。

开源不易,如果你也热爱技术,拥抱开源,希望能小小的支持给个star。

项目的github地址:https://github.com/wangweianger/zanePerfor

项目开发文档说明:https://blog.seosiwei.com/performance/index.html

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。
Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 
这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 
这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 
针对于zanePerfor这样的用户访问行为,页面性能监控系统,但又要求实时处理的限制,这是一个可行的解决方案。

zanePerfor中对于kafka的应用使用了kafka-node包,并在此基础上封装了egg-kafka插件。

zanePerfor初步的探索了kafka在node.js中的应用,以下内容主要讲解kafka在zanePerfor项目中的使用方式。

如果你对在node.js中使用kafka有更多的建议和心得,也希望能跟我一起分享。

zanePerfor项目中kafka应用介绍:

启用kafka配置说明:

// config/config.default.js
// kafka 配置 (report_data_type=kafka生效)
// 配置参考 https://www.npmjs.com/package/kafka-node
config.kafka = {
client: {
kafkaHost: 'localhost:9092',
},
producer: {
web: {
topic: 'zane_perfor_web',
partition: 0, // default 0
attributes: 0, // default: 0
// timestamp: Date.now(),
},
wx: {
topic: 'zane_perfor_wx',
},
},
// consumer 和 consumerGroup消费任选其一即可
// 优先选择consumer消费,两种消费配置任留一种即可
consumer: {
web: {
topic: 'zane_perfor_web',
offset: 0, // default 0
partition: 0, // default 0
isone: false, // 此参数默认不可更改
total_limit: 10000, // 消息队列消费池限制数, 0:不限制 number: 限制条数 高并发时服务优雅降级方案
},
wx: {
topic: 'zane_perfor_wx',
isone: false,
total_limit: 10000,
},
},
consumerGroup: {
web: { // ConsumerGroup(options, topics)
topic: 'zane_perfor_web',
groupId: 'WebPerformanceGroup',
commitOffsetsOnFirstJoin: true,
},
wx: {
topic: 'zane_perfor_wx',
groupId: 'WxPerformanceGroup',
commitOffsetsOnFirstJoin: true,
},
},
};

  

配置说明:

client参数说明:

client参数即为kafka-node中的KafkaClient参数,参考地址:https://www.npmjs.com/package/kafka-node#kafkaclient

producer生产者参数说明:

producer分web端和wx端配置

producer参数为kafka-node中的send参数,参考地址:https://www.npmjs.com/package/kafka-node#sendpayloads-cb

consumer消费者参数说明:

consumer分web端和wx端配置

consumer参数为kafka-node中的consumer参数, 参考地址:https://www.npmjs.com/package/kafka-node#consumerclient-payloads-options

consumerGroup消费者参数说明:

consumerGroup分web端和wx端配置

consumerGroup参数为kafka-node中的consumerGroup参数,参考地址:https://www.npmjs.com/package/kafka-node#consumergroupoptions-topics

关于消费者说明

config配置中有consumer和consumerGroup配置,规则如下:

  • 如果consumer配置为真有限使用consumer配置
  • 如果想启用consumerGroup配置,则注释或者删除consumer配置即可

kafka生产消费逻辑实现:

核心代码实现:

一:生产者

kafka的性能非常强劲,能支持超高并发,因此所有客户端上报的信息都存储到消息队列中,限流策略只使用在消费端,生产端不做限流设置。

// app/controller/api/web/report.js
// 通过kafka 消息队列消费数据
async saveWebReportDataForKafka(query) {
// 生产者
this.app.kafka.send(
'web',
JSON.stringify(query)
); // 消费者
if (!isKafkaConsumer && !this.app.config.kafka.consumer.web.isone) {
this.ctx.service.web.reportTask.saveWebReportDatasForKafka();
isKafkaConsumer = true;
this.app.config.kafka.consumer.web.isone = true;
}
}

  

  • this.app.kafka.send是封装的插件egg-kafka中的方法,功能就是生产信息

  • if (!isKafkaConsumer && !this.app.config.kafka.consumer.web.isone)是为了保证订阅消息的方法只执行一次,后面一但有消息产生,会自动触发订阅函数进行数据消费消费。

二:消费者

// app/service/web/report_task.js
// kafka 消费信息
async saveWebReportDatasForKafka() {
if (this.kafkaConfig.consumer) {
this.app.kafka.consumer('web', message => {
this.consumerDatas(message);
});
} else if (this.kafkaConfig.consumerGroup) {
this.app.kafka.consumerGroup('web', message => {
this.consumerDatas(message);
});
}
}

  

  • this.app.kafka.consumer 单独消费,egg-kafka中暴露的方法

  • this.app.kafka.consumerGroup 以分组的方式消费消息

  • 优先使用consumer消费,其次使用consumerGroup进行消费

egg-kafka插件封装说明

为了更好、更方便的使用kafka,项目中对node-kafka进行了一层封装。

详细请参考:/lib/plugin/egg-kafka/lib/kafka.js

send代码实现如下:

send(type, data) {
assert(type, '[egg-kafka] type is must required.');
if (!data) return;
let producer = this.app.config.kafka.producer[type] || {};
let producers = [];
if (typeof (data) === 'string') {
producer.messages = data;
producers = [ producer ];
} else if (Object.prototype.toString.call(data) === '[object Object]') {
producer = Object.assign({}, producer, data);
producers = [ producer ];
} else if (Object.prototype.toString.call(data) === '[object Array]') {
for (let i = 0; i < data.length; i++) {
data[i] = Object.assign({}, producer, data[i]);
}
producers = data;
}
this.producer.send(producers, (err, data) => {
if (err) assert(err, '[egg-kafka] err. errmsg ${err}');
console.log(data);
});
}

  

send有两个参数,第一个参数type为发送类型,有web、wx两个值可以选择。

对data做了一定的判断,send调用可以有以下几种方式:

// 消息为String
this.app.kafka.send('web','hello world!');
// 消息为Object
this.app.kafka.send('web',{ topic:'test', messages:'hello world!' });
// 消息为Array
this.app.kafka.send('web',[{ topic: 'test', messages: 'hi', partition: 0}]);

  

consumer方法代码实现:

consumer(type = 'web', fn) {
assert(type, '[egg-kafka] consumers type argument must be required');
const kafkaConfig = this.app.config.kafka;
const consumer = kafkaConfig.consumer[type] || {};
const consumers = Array.isArray(consumer) ? consumer : [ consumer ];
const Consumer = kafka.Consumer;
const _consumer = new Consumer(
this.client,
consumers,
{
autoCommit: true,
}
);
_consumer.on('error', err => {
this.app.coreLogger.error(`[egg-kafka] consumer have error ${err}`);
});
_consumer.on('message', message => {
fn && fn(message);
});
}

  

consumerGroup代码实现:

consumerGroup(type = 'web', fn) {
assert(type, '[egg-kafka] consumers type argument must be required');
const kafkaConfig = this.app.config.kafka;
const kafkaHost = kafkaConfig.client.kafkaHost;
const consumerOption = kafkaConfig.consumerGroup[type] || {};
const topic = consumerOption.topic;
consumerOption.kafkaHost = kafkaHost;
const ConsumerGroup = kafka.ConsumerGroup;
const _consumer = new ConsumerGroup(consumerOption, topic);
_consumer.on('error', err => {
this.app.coreLogger.error(`[egg-kafka] consumer have error ${err}`);
});
_consumer.on('message', message => {
fn && fn(message);
});
}

  

消费限流策略:

由于kafka性能及其强悍,因此zanePerfor只对消费进行限流

 

代码实现:

设置消费池数量

// config.default.js
{
topic: 'zane_perfor_web',
offset: 0, // default 0
partition: 0, // default 0
isone: false, // 此参数默认不可更改
total_limit: 10000, // 消息队列消费池限制数, 0:不限制 number: 限制条数 高并发时服务优雅降级方案
}

  

kafka连接池数量判断

// app/service/web/report_task.js 中 getWebItemDataForKafka 方法
// kafka 连接池限制
const msgtab = query.time + query.ip;
if (this.kafkatotal && this.kafkalist.length >= this.kafkatotal) return;
this.kafkalist.push(msgtab);

  

数据消费完成之后删除消费标识

// app/service/web/report_task.js 中 getWebItemDataForKafka 方法
this.savePages(item, system.slow_page_time, () => {
// 释放消费池
const index = this.kafkalist.indexOf(msgtab);
if (index > -1) this.kafkalist.splice(index, 1);
});

  

至此实现了egg.js中对kafka的应用和封装。

node.js中kafka的封装和高并发消费限流优雅降级以及egg-kafka的封装说明的更多相关文章

  1. coding++:高并发解决方案限流技术--计数器--demo

    1.它是限流算法中最简单最容易的一种算法 计数器实现限流 每分钟只允许10个请求 第一个请求进去的时间为startTime,在startTime + 60s内只允许10个请求 当60s内超过十个请求后 ...

  2. coding++:高并发解决方案限流技术---漏桶算法限流--demo

    1.漏桶算法 漏桶作为计量工具(The Leaky Bucket Algorithm as a Meter)时,可以用于流量整形(Traffic Shaping)和流量控制(TrafficPolici ...

  3. coding++:高并发解决方案限流技术-使用RateLimiter实现令牌桶限流-Demo

    RateLimiter是guava提供的基于令牌桶算法的实现类,可以非常简单的完成限流特技,并且根据系统的实际情况来调整生成token的速率. 通常可应用于抢购限流防止冲垮系统:限制某接口.服务单位时 ...

  4. 高并发解决方案限流技术-----使用RateLimiter实现令牌桶限流

    1,RateLimiter是guava提供的基于令牌桶算法的实现类,可以非常简单的完成限流特技,并且根据系统的实际情况来调整生成token的速率.通常可应用于抢购限流防止冲垮系统:限制某接口.服务单位 ...

  5. 在node.js中,使用基于ORM架构的Sequelize,操作mysql数据库之增删改查

    Sequelize是一个基于promise的关系型数据库ORM框架,这个库完全采用JavaScript开发并且能够用在Node.JS环境中,易于使用,支持多SQL方言(dialect),.它当前支持M ...

  6. 初步揭秘node.js中的事件

    当你学习node.js的时候,Events是一个非常重要的需要理解的事情.非常多的Node对象触发事件,你能在文档API中找到很多例子.但是关于如何写自己的事件和监听,你可能还不太清楚.如果你不了解, ...

  7. 在Node.js中使用RabbitMQ系列二 任务队列

    在上一篇文章在Node.js中使用RabbitMQ系列一 Hello world我有使用一个任务队列,不过当时的场景是将消息发送给一个消费者,本篇文章我将讨论有多个消费者的场景. 其实,任务队列最核心 ...

  8. [转]在node.js中,使用基于ORM架构的Sequelize,操作mysql数据库之增删改查

    本文转自:https://www.cnblogs.com/kongxianghai/p/5582661.html Sequelize是一个基于promise的关系型数据库ORM框架,这个库完全采用Ja ...

  9. node.js中process进程的概念和child_process子进程模块的使用

    进程,你可以把它理解成一个正在运行的程序.node.js中每个应用程序都是进程类的实例对象. node.js中有一个 process 全局对象,通过它我们可以获取,运行该程序的用户,环境变量等信息. ...

  10. node.js中module模块的理解

    node.js中使用CommonJS规范实现模块功能,一个单独的文件就是一个单独的模块.通过require方法实现模块间的依赖管理. 通过require加载模块,是同步操作. 加载流程如下: 1.找到 ...

随机推荐

  1. NC20279 [SCOI2010]序列操作

    题目链接 题目 题目描述 lxhgww最近收到了一个01序列,序列里面包含了n个数,这些数要么是0,要么是1,现在对于这个序列有五种变换操作和询问操作: 0 a b 把[a, b]区间内的所有数全变成 ...

  2. 2022-09-20:以下go语言代码输出什么?A:8 8;B:8 16;C:16 16;D:16 8。 package main import ( “unsafe“ “fmt“ )

    2022-09-20:以下go语言代码输出什么?A:8 8:B:8 16:C:16 16:D:16 8. package main import ( "unsafe" " ...

  3. 2020-12-08:TIME_WAIT的等待时间为什么是2MSL?

    福哥答案2020-12-08:[答案来自此链接:](http://bbs.xiangxueketang.cn/question/646)这里假设主动关闭方为A,被动关闭方为B,TIME_WAIT状态是 ...

  4. 【GiraKoo】Android Studio控制台乱码

    [GiraKoo]Android Studio控制台乱码 启动Android Studio进行编译时,可能会遇到控制台出现异常的乱码. 本文介绍该情况的解决方案. ����: δ������쳣���� ...

  5. Netty实战(三)

    目录 一.Channel.EventLoop 和 ChannelFuture 1.1 Channel 接口 1.2 EventLoop 接口 1.3 ChannelFuture 接口 二.Channe ...

  6. Python基础 - 输入和输出

    输出   Python提供了 print() 内置函数完成输出 1 print("你好") 2 3 4 # 你好 n = "你好" print(n) # 你好 ...

  7. 快速上手kettle(二)小试牛刀

    目录 一 .前言 二 .两个小目标 三. kettle核心概念介绍 3.1 转换 3.1.1 步骤(Step) 3.1.2 跳(Hop) 3.1.3 元素据 3.1.4 数据类型 3.1.5 并发执行 ...

  8. Java CAS:AtomicInteger、AtomicReference、AtomicStampedReference

    Java CAS:AtomicInteger.AtomicReference.AtomicStampedReference 什么是CAS? 什么是CAS? 即比较并替换,实现并发算法时常用到的一种技术 ...

  9. 6 种方式读取 Springboot 的配置,老鸟都这么玩(原理+实战)

    大家好,我是小富- 从配置文件中获取属性应该是SpringBoot开发中最为常用的功能之一,但就是这么常用的功能,仍然有很多开发者在这个方面踩坑. 我整理了几种获取配置属性的方式,目的不仅是要让大家学 ...

  10. 前端学习C语言 - 数组和字节序

    数组 本篇主要介绍:一维二维数组.字符数组.数组名和初始化注意点以及字节序. 一维数组 初始化 有以下几种方式对数组初始化: // 定义一个有5个元素的数组,未初始化 int a[5]; // 定义一 ...