简介

netty中用于进行信息承载和交流的类叫做ByteBuf,从名字可以看出这是Byte的缓存区,那么ByteBuf都有哪些特性呢?一起来看看。

ByteBuf详解

netty提供了一个io.netty.buffer的包,该包里面定义了各种类型的ByteBuf和其衍生的类型。

netty Buffer的基础是ByteBuf类,这是一个抽象类,其他的Buffer类基本上都是由该类衍生而得的,这个类也定义了netty整体Buffer的基调。

先来看下ByteBuf的定义:

public abstract class ByteBuf implements ReferenceCounted, Comparable<ByteBuf> {

ByteBuf实现了两个接口,分别是ReferenceCounted和Comparable。Comparable是JDK自带的接口,表示该类之间是可以进行比较的。而ReferenceCounted表示的是对象的引用统计。当一个ReferenceCounted被实例化之后,其引用count=1,每次调用retain() 方法,就会增加count,调用release() 方法又会减少count。当count减为0之后,对象将会被释放,如果试图访问被释放过后的对象,则会报访问异常。

如果一个对象实现了ReferenceCounted,并且这个对象里面包含的其他对象也实现了ReferenceCounted,那么当容器对象的count=0的时候,其内部的其他对象也会被调用release()方法进行释放。

综上,ByteBuf是一个可以比较的,可以计算引用次数的对象。他提供了序列或者随机的byte访问机制。

注意的是,虽然JDK中有自带的ByteBuffer类,但是netty中的 ByteBuf 算是对Byte Buffer的重新实现。他们没有关联关系。

创建一个Buff

ByteBuf是一个抽象类,并不能直接用来实例化,虽然可以使用ByteBuf的子类进行实例化操作,但是netty并不推荐。netty推荐使用io.netty.buffer.Unpooled来进行Buff的创建工作。Unpooled是一个工具类,可以为ByteBuf分配空间、拷贝或者封装操作。

下面是创建几个不同ByteBuf的例子:

   import static io.netty.buffer.Unpooled.*;

   ByteBuf heapBuffer    = buffer(128);
ByteBuf directBuffer = directBuffer(256);
ByteBuf wrappedBuffer = wrappedBuffer(new byte[128], new byte[256]);
ByteBuf copiedBuffer = copiedBuffer(ByteBuffer.allocate(128));

上面我们看到了4种不同的buff构建方式,普通的buff、directBuffer、wrappedBuffer和copiedBuffer。

普通的buff是固定大小的堆buff,而directBuffer是固定大小的direct buff。direct buff使用的是堆外内存,省去了数据到内核的拷贝,因此效率比普通的buff要高。

wrappedBuffer是对现有的byte arrays或者byte buffers的封装,可以看做是一个视图,当底层的数据发生变化的时候,Wrapped buffer中的数据也会发生变化。

Copied buffer是对现有的byte arrays、byte buffers 或者 string的深拷贝,所以它和wrappedBuffer是不同的,Copied buffer和原数据之间并不共享数据。

随机访问Buff

熟悉集合的朋友应该都知道,要想随机访问某个集合,一定是通过index来访问的,ByteBuf也一样,可以通过capacity或得其容量,然后通过getByte方法随机访问其中的byte,如下所示:

        //随机访问
ByteBuf buffer = heapBuffer;
for (int i = 0; i < buffer.capacity(); i ++) {
byte b = buffer.getByte(i);
System.out.println((char) b);
}

序列读写

读写要比访问复杂一点,ByteBuf 提供了两个index用来定位读和写的位置,分别是readerIndex 和 writerIndex ,两个index分别控制读和写的位置。

下图显示的一个buffer被分成了三部分,分别是可废弃的bytes、可读的bytes和可写的bytes。

    +-------------------+------------------+------------------+
| discardable bytes | readable bytes | writable bytes |
| | (CONTENT) | |
+-------------------+------------------+------------------+
| | | |
0 <= readerIndex <= writerIndex <= capacity

上图还表明了readerIndex、writerIndex和capacity的大小关系。

其中readable bytes是真正的内容,可以通过调用read* 或者skip* 的方法来进行访问或者跳过,调用这些方法的时候,readerIndex会同步增加,如果超出了readable bytes的范围,则会抛出IndexOutOfBoundsException。默认情况下readerIndex=0。

下面是一个遍历readable bytes的例子:

        //遍历readable bytes
while (directBuffer.isReadable()) {
System.out.println(directBuffer.readByte());
}

首先通过判断是否是readable来决定是否调用readByte方法。

Writable bytes是一个未确定的区域,等待被填充。可以通过调用write*方法对其操作,同时writerIndex 会同步更新,同样的,如果空间不够的话,也会抛出IndexOutOfBoundsException。默认情况下 新分配的writerIndex =0 ,而wrapped 或者copied buffer的writerIndex=buf的capacity。

下面是一个使用writable Byte的例子:

        //写入writable bytes
while (wrappedBuffer.maxWritableBytes() >= 4) {
wrappedBuffer.writeInt(new Random().nextInt());
}

Discardable bytes是已经被读取过的bytes,初始情况下它的值=0,每当readerIndex右移的时候,Discardable bytes的空间就会增加。如果想要完全删除或重置Discardable bytes,则可以调用discardReadBytes()方法,该方法会将Discardable bytes空间删除,将多余的空间放到writable bytes中,如下所示:

调用 discardReadBytes() 之前:

    +-------------------+------------------+------------------+
| discardable bytes | readable bytes | writable bytes |
+-------------------+------------------+------------------+
| | | |
0 <= readerIndex <= writerIndex <= capacity 调用 discardReadBytes()之后: +------------------+--------------------------------------+
| readable bytes | writable bytes (got more space) |
+------------------+--------------------------------------+
| | |

readerIndex (0) <= writerIndex (decreased) <= capacity

注意,虽然writable bytes变多了,但是其内容是不可控的,并不能保证里面的内容是空的或者不变。

调用clear()方法会将readerIndex 和 writerIndex 清零,注意clear方法只会设置readerIndex 和 writerIndex 的值,并不会清空content,看下面的示意图:

调用 clear()之前:

    +-------------------+------------------+------------------+
| discardable bytes | readable bytes | writable bytes |
+-------------------+------------------+------------------+
| | | |
0 <= readerIndex <= writerIndex <= capacity 调用 clear()之后: +---------------------------------------------------------+
| writable bytes (got more space) |
+---------------------------------------------------------+
| |
0 = readerIndex = writerIndex <= capacity

搜索

ByteBuf提供了单个byte的搜索功能,如 indexOf(int, int, byte) 和 bytesBefore(int, int, byte)两个方法。

如果是要对ByteBuf遍历进行搜索处理的话,可以使用 forEachByte(int, int, ByteProcessor),这个方法接收一个ByteProcessor用于进行复杂的处理。

其他衍生buffer方法

ByteBuf还提供了很多方法用来创建衍生的buffer,如下所示:

duplicate()
slice()
slice(int, int)
readSlice(int)
retainedDuplicate()
retainedSlice()
retainedSlice(int, int)
readRetainedSlice(int)

要注意的是,这些buf是建立在现有buf基础上的衍生品,他们的底层内容是一样的,只有readerIndex, writerIndex 和做标记的index不一样。所以他们和原buf是有共享数据的。如果你希望的是新建一个全新的buffer,那么可以使用copy()方法或者前面提到的Unpooled.copiedBuffer。

在前面小节中,我们讲到ByteBuf是一个ReferenceCounted,这个特征在衍生buf中就用到了。我们知道调用retain() 方法的时候,引用count会增加,但是对于 duplicate(), slice(), slice(int, int) 和 readSlice(int) 这些方法来说,虽然他们也是引用,但是没有调用retain()方法,这样原始数据会在任意一个Buf调用release()方法之后被回收。

如果不想有上面的副作用,那么可以将方法替换成retainedDuplicate(), retainedSlice(), retainedSlice(int, int) 和 readRetainedSlice(int) ,这些方法会调用retain()方法以增加一个引用。

和现有JDK类型的转换

之前提到了ByteBuf 是对ByteBuffer的重写,他们是不同的实现。虽然这两个不同,但是不妨碍将ByteBuf转换ByteBuffer。

当然,最简单的转换是把ByteBuf转换成byte数组byte[]。要想转换成byte数组,可以先调用hasArray() 进行判断,然后再调用array()方法进行转换。

同样的ByteBuf还可以转换成为ByteBuffer ,可以先调用 nioBufferCount()判断能够转换成为 ByteBuffers的个数,再调用nioBuffer() 进行转换。

返回的ByteBuffer是对现有buf的共享或者复制,对返回之后buffer的position和limit修改不会影响到原buf。

最后,使用toString(Charset) 方法可以将ByteBuf转换成为String。

总结

ByteBuf是netty的底层基础,是传输数据的承载对象,深入理解ByteBuf就可以搞懂netty的设计思想,非常不错。

本文的例子可以参考:learn-netty4

本文已收录于 http://www.flydean.com/02-netty-bytebuf/

最通俗的解读,最深刻的干货,最简洁的教程,众多你不知道的小技巧等你来发现!

欢迎关注我的公众号:「程序那些事」,懂技术,更懂你!

netty系列之:netty中的ByteBuf详解的更多相关文章

  1. BAT面试必问细节:关于Netty中的ByteBuf详解

    在Netty中,还有另外一个比较常见的对象ByteBuf,它其实等同于Java Nio中的ByteBuffer,但是ByteBuf对Nio中的ByteBuffer的功能做了很作增强,下面我们来简单了解 ...

  2. 【读后感】Netty 系列之 Netty 高性能之道 - 相比 Mina 怎样 ?

    [读后感]Netty 系列之 Netty 高性能之道 - 相比 Mina 怎样 ? 太阳火神的漂亮人生 (http://blog.csdn.net/opengl_es) 本文遵循"署名-非商 ...

  3. Netty 系列之 Netty 高性能之道 高性能的三个主题 Netty使得开发者能够轻松地接受大量打开的套接字 Java 序列化

    Netty系列之Netty高性能之道 https://www.infoq.cn/article/netty-high-performance 李林锋 2014 年 5 月 29 日 话题:性能调优语言 ...

  4. Android中的动画详解系列【4】——Activity之间切换动画

    前面介绍了Android中的逐帧动画和补间动画,并实现了简单的自定义动画,这一篇我们来看看如何将Android中的动画运用到实际开发中的一个场景--Activity之间跳转动画. 一.定义动画资源 如 ...

  5. Java 8系列之Stream的基本语法详解

    本文转至:https://blog.csdn.net/io_field/article/details/54971761 Stream系列: Java 8系列之Stream的基本语法详解 Java 8 ...

  6. OSGi 系列(三)之 bundle 详解

    OSGi 系列(三)之 bundle 详解 1. 什么是 bundle bundle 是以 jar 包形式存在的一个模块化物理单元,里面包含了代码,资源文件和元数据(metadata),并且 jar ...

  7. Python操作redis系列以 哈希(Hash)命令详解(四)

    # -*- coding: utf-8 -*- import redis #这个redis不能用,请根据自己的需要修改 r =redis.Redis(host=") 1. Hset 命令用于 ...

  8. [翻译]Unity中的AssetBundle详解(三)

    构建AssetBundles 在AssetBundle工作流程的文档中,我们有一个示例代码,它将三个参数传递给BuildPipeline.BuildAssetBundles函数.让我们更深入地了解我们 ...

  9. 「翻译」Unity中的AssetBundle详解(二)

    为AssetBundles准备资源 使用AssetBundles时,您可以随意将任何Asset分配给所需的任何Bundle.但是,在设置Bundles时,需要考虑一些策略.这些分组策略可以使用到任何你 ...

随机推荐

  1. Spring Cloud Data Flow整合UAA使用外置数据库和API接口

    我最新最全的文章都在南瓜慢说 www.pkslow.com,欢迎大家来喝茶! 1 前言 之前的文章<Spring Cloud Data Flow整合Cloudfoundry UAA服务做权限控制 ...

  2. Redis的数据安全与性能保障

    1.持久化选项 Redis提供了2种不同的持久化方法来将数据存储到硬盘里面.一种方法叫快照(snapshotting),它可以将存在于某一时刻的所有数据都写入硬盘里.另一种方法叫只追加文件(appen ...

  3. 流程自动化RPA,Power Automate Desktop系列 - 发布文档中心

    一.背景 内网中有一个基于VuePress搭建的静态文档中心,但是每次修改后都需要重新Build一次才行,之前都是手动执行命令,现在可以基于Power Automate Desktop来创建任务了. ...

  4. Go 中的 channel 与 Java BlockingQueue 的本质区别

    前言 最近在实现两个需求,由于两者之间并没有依赖关系,所以想利用队列进行解耦:但在 Go 的标准库中并没有现成可用并且并发安全的数据结构:但 Go 提供了一个更加优雅的解决方案,那就是 channel ...

  5. Linux基础 -03

    2.2.3 head-tail 命令 #------head #head pass #查看头部内容,默认前10行 #head -n5 pass #查看头部前5行,使用-n指定 #-------tail ...

  6. 【spring源码系列】之【Bean的属性赋值】

    每次进入源码的世界,就像完成一场奇妙的旅行! 1. 属性赋值概述 上一篇讲述了bean实例化中的创建实例过程,实例化后就需要对类中的属性进行依赖注入操作,本篇将重点分析属性赋值相关流程.其中属性赋值, ...

  7. java.util.Date 与 java.sql.Date

    java.sql.Date 继承 java.util.Date 区别: 1.java.sql.Date 一般用于数据库 2.java.sql.Date 没有时分秒,涉及时分秒的函数都会报异常(且这些方 ...

  8. MySQL 卡死的问题

    1. 执行show full processlist观察state和info两列,查看有哪些线程在运行. 2.使用kill命令+对应线程前面id杀死卡死的线程. 其他的方式: -- 查询是否锁表 sh ...

  9. 【转载】每天一个linux命令(11):nl命令

    转载至:http://www.cnblogs.com/peida/archive/2012/11/01/2749048.html nl命令在linux系统中用来计算文件中行号.nl 可以将输出的文件内 ...

  10. XCTF re-100

    一.无壳并拉入ida64静态调试(注释说的很明白了) 二.confuseKey是个关键函数,进入看看 发现就是将我们所输入的字符串分割,并把顺序调换了,调回来就是我们的flag. 三.flag: 提交 ...