背景

最近生产环境一个基于 netty 的网关服务频繁 full gc

观察内存占用,并把时间维度拉的比较长,可以看到可用内存有明显的下降趋势

出现这种情况,按往常的经验,多半是内存泄露了

问题定位

找运维在生产环境 dump 了快照文件,一分析,果然不出所料,在一个 LinkedHashSet 里面, 放入 N 多的临时文件路径

可以看到,该 LinkedHashSet 是被类 DeleteOnExitHook 所引用。

DeleteOnExitHook

DeleteOnExitHook 是 jdk 提供的一个删除文件的钩子类,作用很简单,在 jvm 退出时,通过该类里面的钩子删除里面所记录的所有文件

我们简单的看下源码

class DeleteOnExitHook {
private static LinkedHashSet<String> files = new LinkedHashSet<>();
static {
// 注册钩子, runHooks 方法在 jvm 退出的时候执行
sun.misc.SharedSecrets.getJavaLangAccess()
.registerShutdownHook(2 /* Shutdown hook invocation order */,
true /* register even if shutdown in progress */,
new Runnable() {
public void run() {
runHooks();
}
}
);
} private DeleteOnExitHook() {} // 添加文件全路径到该类里面的set里
static synchronized void add(String file) {
if(files == null) {
// DeleteOnExitHook is running. Too late to add a file
throw new IllegalStateException("Shutdown in progress");
} files.add(file);
} static void runHooks() {
// 省略代码。。。 该方法用做删除 files 里面记录的所有文件
}
}

我们基本猜测出,在应用不断的运行过程中,不断有程序调用 DeleteOnExitHook.add方法,放入了大量临时文件路径,导致了内存泄露

其实关于 DeleteOnExitHook 类的设计,不少人认为这个类设计不合理,并且反馈给官方,但官方觉得是合理的,不打算改这个问题

有兴趣的可以看下 https://bugs.java.com/bugdatabase/view_bug.do?bug_id=6664633

原因分析

既然已经定位到了出问题的地方,那么到底是什么情况下触发了这个 bug 了呢?

因为我们的网关是基于 netty 实现的,很快定位到了该问题是由 netty 引起的,但要说清楚这个问题并不容易

HttpPostRequestDecoder

如果我们要用 netty 处理一个普通的 post 请求,一种典型的写法是这样,使用 netty 提供的解码器解析 post 请求

// request 为 FullHttpRequest 对象
HttpPostRequestDecoder decoder = new HttpPostRequestDecoder(request);
try {
for (InterfaceHttpData data : decoder.getBodyHttpDatas()) {
// TODO 根据自己的需求处理 body 数据
}
return params;
} finally {
decoder.destroy();
}

HttpPostRequestDecoder 其实是一个解码器的代理对象, 在构造方法里使用默认使用 DefaultHttpDataFactory 作为 HttpDataFactory

同时会判断请求是否是 Multipart 请求,如果是,使用 HttpPostMultipartRequestDecoder,否则使用 HttpPostStandardRequestDecoder

public HttpPostRequestDecoder(HttpRequest request) {
this(new DefaultHttpDataFactory(DefaultHttpDataFactory.MINSIZE), request, HttpConstants.DEFAULT_CHARSET);
} public HttpPostRequestDecoder(HttpDataFactory factory, HttpRequest request, Charset charset) {
// 省略参数校验相关代码 // Fill default values
if (isMultipart(request)) {
decoder = new HttpPostMultipartRequestDecoder(factory, request, charset);
} else {
decoder = new HttpPostStandardRequestDecoder(factory, request, charset);
}
}

DefaultHttpDataFactory

HttpDataFactory 作用很简单,就是创建 httpData 实例,httpData 有多种实现,后续我们会讲到

HttpDataFactory 有两个关键参数

  • 参数 useDisk ,默认 false,如果设为 true,创建 httpData 优先使用磁盘存储
  • 参数 checkSize,默认 true,使用混合存储,混合存储会通过校验数据大小,重新选择存储方式

HttpDataFactory 里方法虽然不少,其实都是相同逻辑的不同实现,我们选取一个来看下源码

@Override
public FileUpload createFileUpload(HttpRequest request, String name, String filename,
String contentType, String contentTransferEncoding, Charset charset,
long size) {
// 如果设置了用磁盘,默认会用磁盘存储的 httpData, userDisk 默认是 false
if (useDisk) {
FileUpload fileUpload = new DiskFileUpload(name, filename, contentType,
contentTransferEncoding, charset, size);
fileUpload.setMaxSize(maxSize);
checkHttpDataSize(fileUpload);
List<HttpData> fileToDelete = getList(request);
fileToDelete.add(fileUpload);
return fileUpload;
}
// checkSize 默认 true
if (checkSize) {
// 创建 MixedFileUpload 对象
FileUpload fileUpload = new MixedFileUpload(name, filename, contentType,
contentTransferEncoding, charset, size, minSize);
fileUpload.setMaxSize(maxSize);
checkHttpDataSize(fileUpload);
List<HttpData> fileToDelete = getList(request);
fileToDelete.add(fileUpload);
return fileUpload;
}
MemoryFileUpload fileUpload = new MemoryFileUpload(name, filename, contentType,
contentTransferEncoding, charset, size);
fileUpload.setMaxSize(maxSize);
checkHttpDataSize(fileUpload);
return fileUpload;
}

httpData

httpData 可以理解为 netty 对 body 里的数据做的一个抽象,并且抽象出了两个维度

  • 从数据类型来看,可以分为普通属性和文件属性
  • 从存储方式来看,可以分为磁盘存储,内存存储,混合存储
类型/存储方式 磁盘存储 内存存储 混合存储
普通属性 DiskAttribute MemoryAttribute MixedAttribute
文件属性 DiskFileUpload MemoryFileUpload MixedFileUpload

可以看到,根据数据属性不同和存储方式不同一共有六种方式

但需要注意的是,磁盘存储和内存存储才是真正的存储方式,混合存储只是对前两者的代理

  • MixedAttribute 会根据设置的数据大小限制,决定自己真正使用  DiskAttribute 还是 MemoryAttribute
  • MixedFileUpload 会根据设置的数据大小限制,决定自己真正使用 DiskFileUpload  还是 MemoryFileUpload

我们来看下 MixedFileUpload 对象构造方法

public MixedFileUpload(String name, String filename, String contentType,
String contentTransferEncoding, Charset charset, long size,
long limitSize) {
this.limitSize = limitSize;
// 如果大于 16kb(默认),用磁盘存储,否则用内存
if (size > this.limitSize) {
fileUpload = new DiskFileUpload(name, filename, contentType,
contentTransferEncoding, charset, size);
} else {
fileUpload = new MemoryFileUpload(name, filename, contentType,
contentTransferEncoding, charset, size);
}
definedSize = size;
}

后续在往 MixedFileUpload 添加内容时,会判断内容如果大于 16kb,仍旧用磁盘存储

@Override
public void addContent(ByteBuf buffer, boolean last)
throws IOException {
// 如果现在是用内存存储
if (fileUpload instanceof MemoryFileUpload) {
checkSize(fileUpload.length() + buffer.readableBytes());
// 判断内容如果大于16kb(默认),换成磁盘存储
if (fileUpload.length() + buffer.readableBytes() > limitSize) {
DiskFileUpload diskFileUpload = new DiskFileUpload(fileUpload
.getName(), fileUpload.getFilename(), fileUpload
.getContentType(), fileUpload
.getContentTransferEncoding(), fileUpload.getCharset(),
definedSize);
diskFileUpload.setMaxSize(maxSize);
ByteBuf data = fileUpload.getByteBuf();
if (data != null && data.isReadable()) {
diskFileUpload.addContent(data.retain(), false);
}
// release old upload
fileUpload.release();
fileUpload = diskFileUpload;
}
}
fileUpload.addContent(buffer, last);
}

如果上面的解释还没有让你理解 httpData 的设计,我相信看完下面这张类图你一定会明白

httpData 磁盘存储的问题

我们通过上面的分析可以看到,使用磁盘存储的 httpData 实现一共有两个,分别是 DiskAttribute 和 DiskFileUpload

从上面的类图可以看到,这两个类都继承于抽象类 AbstractDiskHttpData,使用磁盘存储会创建临时文件,如果使用磁盘存储,在添加内容时会调用   tempFile 方法创建临时文件

private File tempFile() throws IOException {
String newpostfix;
String diskFilename = getDiskFilename();
if (diskFilename != null) {
newpostfix = '_' + diskFilename;
} else {
newpostfix = getPostfix();
}
File tmpFile;
if (getBaseDirectory() == null) {
// create a temporary file
tmpFile = File.createTempFile(getPrefix(), newpostfix);
} else {
tmpFile = File.createTempFile(getPrefix(), newpostfix, new File(
getBaseDirectory()));
}
// deleteOnExit 方法默认返回 ture,这个参数可配置,也就是这个参数导致了内存泄露
if (deleteOnExit()) {
tmpFile.deleteOnExit();
}
return tmpFile;
}

这里可以看到如果 deleteOnExit 方法默认返回 ture,就会执行 deleteOnExit 方法,就是这个方法导致了内存泄露

我们看下 deleteOnExit 源码,该方法会把文件路径添加到 DeleteOnExitHook 类中,等 java 虚拟机停止时删除文件

至于 DeleteOnExitHook 为什么会导致内存泄露,文章开始的时候已经解释,这里不再赘述

// 在java 虚拟机停止时删除文件
public void deleteOnExit() {
SecurityManager security = System.getSecurityManager();
if (security != null) {
security.checkDelete(path);
}
if (isInvalid()) {
return;
}
// 文件路径会一直保存到一个linkedHashSet里面
DeleteOnExitHook.add(path);
}

到这里,我相信你也一定明白问题所在了

在请求内容大于 16kb(默认值,可设置)的时候,netty 会使用磁盘存储请求内容,同时在默认情况下,会调用 file 的   deleteOnExit 方法,导致文件路径不断的被保存到 DeleteOnExitHook ,不能被 jvm 回收,造成内存泄露

解决方案

DiskAttribute 中 deleteOnExit 方法 返回的是静态变量 DiskAttribute.deleteOnExitTemporaryFile 的值,默认 true

DiskFileUpload 中 deleteOnExit 方法 返回的是静态变量 DiskFileUpload.deleteOnExitTemporaryFile 的值,默认 true

只需把这两个静态变量设为 false 即可

static {
DiskFileUpload.deleteOnExitTemporaryFile = false;
DiskAttribute.deleteOnExitTemporaryFile = false;
}

至于临时文件的删除我们也不用担心,HttpPostRequestDecoder 最后调用了 destroy 方法,就能保证后续的临时文件删除和资源回收,因此,上述默认情况下没必要通过 deleteOnExit 方法在 jvm 关闭时再清理资源

HttpPostRequestDecoder 解析数据的时序图如下

官方修复

上面的解决方案其实只是避开问题,并没有真正的解决这个 bug

我看了下官方的 issues,该问题已经被多次反馈,最终在 4.1.53.Final 版本里修复,修复逻辑也很简单,重写 DeleteOnExitHook 类为 DeleteFileOnExitHook ,并提供 remove 方法

在 AbstractDiskHttpData 类的删除文件时,同时删除 DeleteFileOnExitHook 类中存储的路径

有兴趣的可以看下官方的 issuerspr了解更多信息

从一次netty 内存泄露问题来看netty对POST请求的解析的更多相关文章

  1. 双11线上压测netty内存泄露

    最近线上压测,机器学习模型第一次应用到线上经历双11大促.JSF微服务有报错 LEAK: ByteBuf.release() was not called before it's garbage-co ...

  2. Netty如何监控内存泄露

    目录 Netty如何监控内存泄露 前言 JDK的弱引用和引用队列 Netty的实现思路 代码实现 分配监控对象 追踪和检查泄露 Netty如何监控内存泄露 前言 一般而言,在Netty程序中都会采用池 ...

  3. 抓到 Netty 一个隐藏很深的内存泄露 Bug | 详解 Recycler 对象池的精妙设计与实现

    欢迎关注公众号:bin的技术小屋,如果大家在看文章的时候发现图片加载不了,可以到公众号查看原文 本系列Netty源码解析文章基于 4.1.56.Final版本 最近在 Review Netty 代码的 ...

  4. Netty堆外内存泄露排查与总结

    导读 Netty 是一个异步事件驱动的网络通信层框架,用于快速开发高可用高性能的服务端网络框架与客户端程序,它极大地简化了 TCP 和 UDP 套接字服务器等网络编程. Netty 底层基于 JDK ...

  5. ThreaLocal内存泄露的问题

    在最近一个项目中,在项目发布之后,发现系统中有内存泄漏问题.表象是堆内存随着系统的运行时间缓慢增长,一直没有办法通过gc来回收,最终于导致堆内存耗尽,内存溢出.开始是怀疑ThreadLocal的问题, ...

  6. FastMM 定位内存泄露的代码位置

    FastMM 定位内存泄露的代码位置 开源的FastMM,使用很简单,在工程的第一行引用FastMM4即可(注意,一定要在第一个Uses的位置),可以在调试程序时提示内存泄露情况,还可以生成报告. 在 ...

  7. 使用新版Android Studio检测内存泄露和性能

    内存泄露,是Android开发者最头疼的事.可能一处小小的内存泄露,都可能是毁于千里之堤的蚁穴.  怎么才能检测内存泄露呢?网上教程非常多,不过很多都是使用Eclipse检测的, 其实1.3版本以后的 ...

  8. .Net内存泄露原因及解决办法

    .Net内存泄露原因及解决办法 1.    什么是.Net内存泄露 (1).NET 应用程序中的内存 您大概已经知道,.NET 应用程序中要使用多种类型的内存,包括:堆栈.非托管堆和托管堆.这里我们需 ...

  9. Android开发笔记——常见BUG类型之内存泄露与线程安全

    本文内容来源于最近一次内部分享的总结,没来得及详细整理,见谅. 本次分享主要对内存泄露和线程安全这两个问题进行一些说明,内部代码扫描发现的BUG大致分为四类:1)空指针:2)除0:3)内存.资源泄露: ...

随机推荐

  1. 将Acunetix与CircleCI集成

    如果要在DevSecOps中包含Acunetix ,则需要将其与CI / CD系统集成.Acunetix具有针对最受欢迎的CI / CD系统Jenkins的现成集成.但是,您可以使用Acunetix ...

  2. centos安装报错:license information (license not accepted)

    前言:在最近部署的centos系统发现个问题 出现报错:安装配置完成后,重启虚拟机出现license  information  (license not accepted) 截图: 解决方案: 在界 ...

  3. http、tcp和socket简单理解

    1.Http属于应用层,主要解决如何包装数据. 2.Tcp属于传输层,主要解决数据如何在网络上传输. 3.Socket是对TCP/IP协议的封装,Socket本身并不是协议,而是一个调用接口(API) ...

  4. 单点登录(SSO)实现原理(转)

    简介 单点登录是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用系统的保护资源,若用户在某个应用系统中进行注销登录,所有的应用系统都不能再直接访问保护资源,像一些知名的大型网站,如:淘 ...

  5. Kong的API管理方式

    目录 Kong 的管理方式 1. kong的关键术语 Service: Route: Upstream: Target: API: Consumer: Plugin: 2. 如何通过配置KONG AP ...

  6. 「HEOI2016/TJOI2016」排序

    「HEOI2016/TJOI2016」排序 题目大意 给定一个 \(1\) 到 \(n\) 的排列,每次可以对这个序列的一个区间进行升序/降序排序,求所有操作后第 \(q\) 个位置上的数字. 题解 ...

  7. c语言:随机函数应用

    #include <stdio.h> #include <time.h>//声明time 时间不可逆转一直在变 #include <math.h> #include ...

  8. DataFrame的创建

    DataFrame的创建从Spark2.0以上版本开始,Spark使用全新的SparkSession接口替代Spark1.6中的SQLContext及HiveContext接口来实现其对数据加载.转换 ...

  9. Cookie学习总结

    Cookie简述 1. 概念 一种客户端会话技术,可以将一些少量的数据保存在客户端. 2. 快速使用 步骤 创建cookie对象,并设定数据 new Cookie(String name, Strin ...

  10. 如何掌握C#的核心技术

    如何掌握C#的核心技术 感谢网友毛大神制作的图. 引子 前不久看到一个段子,某年宁波交警引进人脸识别技术抓拍行人闯红灯,结果一天下来被发现闯红灯次数最多的是珠海女子董小姐,日闯红灯3000多次.宁波交 ...