作用

将http请求与响应的内容发到kafka的topic,以json的形式发送存储

配置相关

  • log_format为自定义配置字段,添加后,默认的请求响应消息将被覆盖
{
"_meta": {
"disable": false
},
"batch_max_size": 1,
"brokers": [
{
"host": "192.168.10.132",
"port": 9091
},
{
"host": "192.168.10.133",
"port": 9092
},
{
"host": "192.168.10.134",
"port": 9097
}
],
"disable": false,
"include_req_body": false,
"include_resp_body": false,
"kafka_topic": "apisix-logger-test",
"log_format": {
"api": "$request_uri",
"userId": "$http_sub",
"userName": "$http_preferred_username",
"now":"$time_iso8601",
},
"producer_type": "async",
"required_acks": 1
}
  • $开头表示是系统变量
  • $http_开头的,表示是从请求头里获取
  • 如果获取字段的内容为空,则不会出现在消息体里
  • kafka里存储的消息为以下内容
{
"now": "2024-09-10T02:01:22+00:00",
"route_id": "528226539821597458",
"api": "/pkulaw-chat-gpt-api-4/6.0.0.0/gpt/writer/ping",
}

上面配置,是直接在路由或者全局插件配置中,可以通过apisix-dashboard进行配置,使用log_format对记录的信息进行了设置,我们不建议自定义log_format,因为默认的就是最全的信息

不使用log_format,默认的消息体内容如下

[
{
"client_ip": "192.168.60.136",
"upstream": "10.42.4.236:8080",
"apisix_latency": 7.0000324249268,
"start_time": 1716198064095,
"latency": 16.000032424927,
"request": {
"uri": "/kpi/hello",
"method": "GET",
"size": 1757,
"url": "http://test-apisix.pkulaw.com:9080/kpi/hello",
"headers": {
"accept": "text/html,application/xhtml+xml,application/xml;q\u003d0.9,image/avif,image/webp,*/*;q\u003d0.8",
"connection": "close",
"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:125.0) Gecko/20100101 Firefox/125.0",
"cookie": "Hm_lvt_8266968662c086f34b2a3e2ae9014bf8\u003d1715752532; Hm_up_8266968662c086f34b2a3e2ae9014bf8\u003d%7B%22ysx_yhqx_20220602%22%3A%7B%22value%22%3A%220%22%2C%22scope%22%3A1%7D%2C%22ysx_hy_20220527%22%3A%7B%22value%22%3A%2206%22%2C%22scope%22%3A1%7D%2C%22uid_%22%3A%7B%22value%22%3A%22fd9959db-ab28-eb11-b390-00155d3c0709%22%2C%22scope%22%3A1%7D%2C%22ysx_yhjs_20220602%22%3A%7B%22value%22%3A%221%22%2C%22scope%22%3A1%7D%7D; cookieUUID\u003dcookieUUID_1715593171791; Hm_lpvt_8266968662c086f34b2a3e2ae9014bf8\u003d1715852645; CookieId\u003daa4be28db45fcd6c3edd84d304533838; SUB\u003d79781f2d-8b4f-483e-ac31-dd55ada12e21; preferred_username\u003dphone2021090709182413393; session_state\u003dde594c09-5681-47c2-ad76-6a7979ff38cd; sensorsdata2015jssdkcross\u003d%7B%22distinct_id%22%3A%22CPcsuEJK%22%2C%22first_id%22%3A%2218f938551ccfe-0b472eec538364-e505625-2073600-18f938551cde56%22%2C%22props%22%3A%7B%22%24latest_traffic_source_type%22%3A%22%E7%9B%B4%E6%8E%A5%E6%B5%81%E9%87%8F%22%2C%22%24latest_search_keyword%22%3A%22%E6%9C%AA%E5%8F%96%E5%88%B0%E5%80%BC_%E7%9B%B4%E6%8E%A5%E6%89%93%E5%BC%80%22%2C%22%24latest_referrer%22%3A%22%22%7D%2C%22%24device_id%22%3A%2218f938551ccfe-0b472eec538364-e505625-2073600-18f938551cde56%22%7D; sajssdk_2015_cross_new_user\u003d1",
"sec-fetch-dest": "document",
"upgrade-insecure-requests": "1",
"accept-language": "zh-CN,en;q\u003d0.8,en-US;q\u003d0.7,zh;q\u003d0.5,zh-TW;q\u003d0.3,zh-HK;q\u003d0.2",
"sec-fetch-mode": "navigate",
"accept-encoding": "gzip, deflate, br",
"sec-fetch-site": "none",
"sec-fetch-user": "?1",
"host": "test-apisix.pkulaw.com",
"x-forwarded-for": "111.198.143.194"
},
"querystring": {}
},
"response": {
"status": 200,
"headers": {
"server": "APISIX/3.8.0",
"content-type": "application/json",
"x-ratelimit-limit": "5",
"transfer-encoding": "chunked",
"connection": "close",
"date": "Mon, 20 May 2024 09:41:04 GMT",
"x-ratelimit-reset": "60",
"x-ratelimit-remaining": "4"
},
"size": 2064
},
"route_id": "513923429800346372",
"upstream_latency": 9,
"service_id": "",
"server": {
"version": "3.8.0",
"hostname": "apisix-78bcfb45c6-26746"
}
}
]

在log_format的同步添加扩展字段

  • 这需要修改kafka-logger的源码了
  • 获取user-agent中的操作系统,浏览器等信息,你可以添加下面的方法
local function parse_user_agent(user_agent)
local os, browser, version -- 检测操作系统
if user_agent:find("Windows") then
os = "Windows"
elseif user_agent:find("Macintosh") then
os = "Mac OS"
elseif user_agent:find("Linux") then
os = "Linux"
elseif user_agent:find("Android") then
os = "Android"
elseif user_agent:find("iPhone") then
os = "iOS"
end -- 检测浏览器
if user_agent:find("Chrome") then
browser = "Chrome"
version = user_agent:match("Chrome%/(%d+%.%d+)")
elseif user_agent:find("Firefox") then
browser = "Firefox"
version = user_agent:match("Firefox%/(%d+%.%d+)")
elseif user_agent:find("Safari") then
browser = "Safari"
version = user_agent:match("Version%/(%d+%.%d+)")
elseif user_agent:find("MSIE") then
browser = "Internet Explorer"
version = user_agent:match("MSIE (%d+%.%d+)")
elseif user_agent:find("Trident") then
browser = "Internet Explorer"
version = user_agent:match("rv:(%d+%.%d+)")
end return {
os = os or "Unknown",
browser = browser or "Unknown",
version = version or "Unknown"
}
end

在kafka-logger的_M.log(conf, ctx)方法中,添加浏览器扩展字段

function _M.log(conf, ctx)
local entry
if conf.meta_format == "origin" then
entry = log_util.get_req_original(ctx, conf)
else
entry = log_util.get_log_entry(plugin_name, conf, ctx)
end
-- 添加扩展字段开始
local user_agent = ngx.var.http_user_agent
local info = parse_user_agent(user_agent)
entry.os = info.os
entry.browser=info.browser
entry.version=info.version
-- 添加扩展字段结束
if batch_processor_manager:add_entry(conf, entry) then
return
end
...

apisix~kafka-logger插件的更多相关文章

  1. Kettle安装Kafka Consumer和Kafka Producer插件

    1.从github上下载kettle的kafka插件,地址如下 Kafka Consumer地址: https://github.com/RuckusWirelessIL/pentaho-kafka- ...

  2. PHP安装kafka插件

    在工作中我们经常遇到需要给php安装插件,今天把php安装kafka的插件的步骤整理下,仅供大家参考 1:需要先安装librdkafka git clone https://github.com/ed ...

  3. 最好用的 Kafka Json Logger Java客户端,赶紧尝试一下

    最好用的 Kafka Json Logger Java客户端. slf4j4json 最好用的 Kafka Json Logger 库:不尝试一下可惜了! Description 一款为 Kafka ...

  4. apisix docker镜像构建及插件化开发

    高能劝退:lua开发,适合小白看!!! 前段时间有个项目,用的java程序做网关,压测tps只有1k多点,惨不忍睹. 后来公司有个大佬改用apisix做网关,tps飙升到1w多. 于是对神奇的apis ...

  5. 详解 APISIX Lua 动态调试插件 inspect

    作者罗锦华,API7.ai 技术专家/技术工程师,开源项目 pgcat,lua-resty-ffi,lua-resty-inspect 的作者. 原文链接 为什么需要 Lua 动态调试插件? Apac ...

  6. WebAssembly 助力云原生:APISIX 如何借助 Wasm 插件实现扩展功能?

    本文将介绍 Wasm,以及 Apache APISIX 如何实现 Wasm 功能. 作者朱欣欣,API7.ai 技术工程师 原文链接 什么是 Wasm Wasm 是 WebAssembly 的缩写.W ...

  7. kafka 基础知识梳理及集群环境部署记录

    一.kafka基础介绍 Kafka是最初由Linkedin公司开发,是一个分布式.支持分区的(partition).多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特 ...

  8. SpringBoot+kafka+ELK分布式日志收集

    一.背景 随着业务复杂度的提升以及微服务的兴起,传统单一项目会被按照业务规则进行垂直拆分,另外为了防止单点故障我们也会将重要的服务模块进行集群部署,通过负载均衡进行服务的调用.那么随着节点的增多,各个 ...

  9. 云原生API网关全生命周期管理Apache APISIX探究实操

    @ 目录 概述 定义 NGINX 与 Kong 的痛点 APISIX 的技术优势 特性 架构 应用场景 主要概念 部署 快速入门 quickstart安装 Admin API创建路由 RPM安装 安装 ...

  10. kafka 搭建与使用

    消息量非超级多不建议使用,可以使用redis或Beanstalkd 使用简单 Beanstalkd 客户端建议用:composer require pda/pheanstalk 如果无JAVA JDK ...

随机推荐

  1. 【Maxwell】02 Kafka配置

    一.快速搭建Kafka环境 基于Docker容器创建(供参考): https://www.cnblogs.com/mindzone/p/15608984.html 这里简要写一下命令: # 拉取zk ...

  2. 【Vue】Re05 操作数组的API

    一.响应式处理的操作: <!DOCTYPE html> <html lang="en"> <head> <meta charset=&qu ...

  3. [rCore学习笔记 021]多道程序与分时任务

    写在前面 本随笔是非常菜的菜鸡写的.如有问题请及时提出. 可以联系:1160712160@qq.com GitHhub:https://github.com/WindDevil (目前啥也没有 导读 ...

  4. python画图报错:OSError: 'seaborn-whitegrid' is not a valid package style

    解决方法: https://stackoverflow.com/questions/78019854/matplotlib-seaborn-whitegrid-is-not-a-valid-packa ...

  5. tensorflow 数据集对象(tf.data)的使用( tf.data.Dataset 、tf.data.TextLineDataset 、 tf.data.TFRecordDataset ) 示例

    tensorflow   使用数据集(tf.data)的方法对数据集进行操纵. 1.    对   数组(内存向量)  进行操纵 : import tensorflow as tf input_dat ...

  6. Google的TPU的逐元素操作特性 —— TPU数据操作时最基本的操作原语(primitive)

    地址: https://jax.readthedocs.io/en/latest/pallas/tpu.html TPU是原来进行矩阵计算加速的一个科学计算的设备,功能大致等同于NVIDIA的GPU的 ...

  7. 如何修复ubuntu的uefi启动——如何将Ubuntu安装入移动硬盘中

    交代一下使用场景,个人平时经常使用Ubuntu系统,由于不喜欢总在一个地方呆但是来回搬电脑又不是十分的方便,于是想到了一个好的方案,那就是把Ubuntu系统安装到移动硬盘中,这样不论是在家还是在实验室 ...

  8. ffmpeg和ffplay常用指令

    FFmpeg 常见用法 1. 基本命令结构 ffmpeg [global_options] -i input_file [input_options] output_file [output_opti ...

  9. Java 大文件IO操作效率对比【我说说 你瞅瞅】

    Java 文件IO操作效率对比 注:本文只做时间消耗层面对比,内存占用层面需要特别关注! 1. 参数说明 文件总大小:2,111,993,850 字节(2.11 GB) static String d ...

  10. 首次在WebAPI中写单元测试

    xUnit 这次我使用的是xUnit测试框架,而不是VS自带的MSTest框架.在添加新建项目时选择xUnit测试项目就行了. 目前只体验到了一个差别,即xUnit可以使用特性向测试方法传参,而不用在 ...