优化 1:元数据共享

hessian 序列化会将两种信息写到输出流:

  1. 元数据:即类全名,字段名
  2. 值数据:即各个字段对应值(如果字段是复杂类型,则会递归传递该复杂类型

    的元数据和内部字段的值数据)

    在 hessian1 协议里,每次写出 Class  A 的实例时,都会写出 Class  A 的元

    数据和值数据,就是会重复传输相同的元数据。针对这点,hessian2 协议做了一个

    优化就是:在“同一次序列化上下文”里,如果存在 Class  A 的多个实例,只会对

    Class  A 的元数据传输一次。该元数据会在对端被缓存起来重复使用,下次再序列化

    Class  A 的对象时,只需要先写出对元数据的一个引用句柄(缓存中的 index,用一

    个 int 表示),然后直接写出值数据即可。接受方通过元数据句柄即可知道后面的值数

    据对应的类型。

    这是一个极大的提升。因为编码字段名字(就是字符串)所需的字节数很可能比

    它对应的值(可能只是一个 byte)更多。

    不过在官方的 hessian 里,这个优化有两个限制:
  3. 序列化过程中类型对应的 Class 结构不能改变
  4. 元数据引用只能在“同一个序列化上下文”,这里的“上下文”就是指同一

    个 HessianOutput 和 HessianInput。因为元数据的 id 分配和缓存分别是在

    HessianOutput 和 HessianInput 里进行的

    限制 1 我们可以接受,一般 DO 不会再运行时改变。但是限制 2 不太友好,因

    为针对每次请求的序列化和反序列化,HSF 都需要使用全新构造的 HessianOutput

    和 HessianInput。这就导致每次请求都需要重新发送上次请求已经发送过的元数据。

    针对限制 2,HSF 实现了跨请求元数据共享,这样只要发送过一次元数据,以

    后就再也不用发送了,进一步减少传输的数据量。实现机制如下:
  5. 修改 hessian 代码,将元数据 id 分配和缓存的数据结构从 HessianOutput

    和 HessianInput 剥离出来。
  6. 修改 HSF 代码,将上述剥离出来的数据结构作为连接级别的上下文保存起来。
  7. 每次构造 HessianOutput 和 HessianInput 时将其作为参数传入。这样就达

    了跨请求复用元数据的目的。

    该优化的效果取决于业务对象中,元数据所占的比例,如果“精心”构造对象,

    使得元数据所占比例很大,那么测试表现会很好,不过这没有意义。我们还是选取线

    上核心应用的真实业务对象来测试。从线上 tcp dump 了一个真实业务对象,测试同

    学以此编写测试用例得到测试数据如下:
  8. 新版本比老版本 CPU 利用率下降 10% 左右
  9. 新版本的网络流量相比老版本减少约 17%

    线上核心应用压测结果显示数据流量下降一般在 15%~20% 之间。

优化 2:UTF8 解码优化

hessian 传输的字符串都是 utf8 编码的,反序列化时需要进行解码。hessian

现行的解码方式是逐个字符进行。代码如下:

    private int parseUTF8Char() throws IOException {
int ch = _offset < _length
? (_buffer[_offset++] & 0xff) : read();
if (ch < 0x80)
return ch;
else if ((ch & 0xe0) == 0xc0) {
int ch1 = read();
int v = ((ch & 0x1f) << 6) + (ch1 & 0x3f);
return v;
} else if ((ch & 0xf0) == 0xe0) {
int ch1 = read();
int ch2 = read();
int v = ((ch & 0x0f) << 12) + ((ch1 & 0x3f) << 6) + (ch2 & 0x3f);
return v;
} else
throw error("bad utf-8 encoding at " + codeName(ch));
}

UTF8 是变长编码,有三种格式:

1  byte  format:  0xxxxxxx

2  byte  format:  110xxxxx  10xxxxxx

3  byte  format:  1110xxxx  10xxxxxx  10xxxxxx

上面的代码是对每个字节,通过位运算判断属于哪一种格式,然后分别解析。

优化方式是:通过 unsafe 将 8 个字节作为一个 long 读取,然后通过一次位运

算判断这 8 个字节是否都是“1  byte  format”,如果是(很大概率是,因为常用的

ASCII 都是“1  byte  format”),则可以将 8 个字节直接解码返回。以前 8 次位运

算,现在只需要一次了。如果判断失败,则按老的方式,逐个字节进行解码。主要代

码如下:

private boolean parseUTF8Char_improved() throws IOException {
while (_chunkLength > 0) {
if (_offset >= _length && !readBuffer()) {
return false;
}
int sizeOfBufferedBytes = _length - _offset;
int toRead =
sizeOfBufferedBytes <= _chunkLength ? sizeOfBufferedBytes : _chunkLength;
// fast path for ASCII
int numLongs = toRead >> 3;
for (int i = 0; i < numLongs; i++) {
long currentOffset = baseOffset + _offset;
long test =
unsafe.getLong(_buffer, currentOffset);
if ((test & 0x8080808080808080L) == 0L) {
_chunkLength -=
8;
toRead -= 8;
for (int j = 0; j < 8; j++) {
_sbuf.append((char) (_
buffer[_offset++]));
}
} else {
break;
}
for (int i = 0; i < toRead; i++) {
_chunkLength--;
int ch = (_buffer[_offset++] & 0xff);
if (ch < 0x80) {
_sbuf.append((char) ch);
} else if ((ch & 0xe0) == 0xc0) {
int ch1 = read();
int v = ((ch & 0x1f) << 6) + (ch1 & 0x3f);
_sbuf.append((char) v);
} else if ((ch & 0xf0) == 0xe0) {
int ch1 = read();
int ch2 = read();
int v = ((ch & 0x0f) << 12) + ((ch1 & 0x3f) << 6) + (ch2 & 0x3f);
_sbuf.append((char) v);
} else
throw error("bad utf-8 encoding at " + codeName(ch));
}
}
return true;
}
}

同样使用线上 dump 的业务对象进行对比,测试结果显示该优化带来了 17% 的

性能提升:

time: 981

improved utf8 decode time: 810

(981-810)/981 = 0.1743119266055046

优化 4: map 操作数组化

大型系统里多个模块间经常通过 Map 来交互信息,互相只需要耦合 String 类型

的 key。常见代码如下:

public static final String key = "mykey";
Map<String,Object> attributeMap = new HashMap<String,Object>();
Object value = attributeMap.get(key);

大量的 Map 操作也是性能的一大消耗点。HSF 今年尝试将 Map 操作进行了优

化,改进为数组操作,避免了 Map 操作消耗。新的范例代码如下:

public static final AttributeNamespace ns = AttributeNamespace.
createNamespace("mynamespace");
public static final AttributeKey key = new AttributeKey(ns, "mykey");
DefaultAttributeMap attributeMap = new DefaultAttributeMap(ns, 8);
Object value = attributeMap.get(key);

工作机制简单说明如下:

  1. key 类型由 String 改为自定义的 AttributeKey,AttributeKey 会在初始化阶

    段就去 AttributeNamespace 申请一个固定 id

    2.map 类 型 由 HashMap 改 为 自 定 义 的 DefaultAttributeMap,DefaultAttributeMap

    内部使用数组存放数据
  2. 操作 DefaultAttributeMap 直接使用 AttributeKey 里存放的 id 作为 index 访

    问数组即可,避免了 hash 计算等一系列操作。核心就是将之前的字符串 key

    和一个固定的 id 对应起来,作为访问数组的 index

    对比 HashMap 和 DefaultAttributeMap,性能提升约 30%。

HashMap put time(ms) : 262

ArrayMap put time(ms) : 185

HashMap get time(ms) : 184

ArrayMap get time(ms) : 126

摘自阿里双11技术文档

RPC性能优化的更多相关文章

  1. Go RPC 框架 KiteX 性能优化实践 原创 基础架构团队 字节跳动技术团队 2021-01-18

    Go RPC 框架 KiteX 性能优化实践 原创 基础架构团队 字节跳动技术团队 2021-01-18

  2. Netty实现高性能RPC服务器优化篇之消息序列化

    在本人写的前一篇文章中,谈及有关如何利用Netty开发实现,高性能RPC服务器的一些设计思路.设计原理,以及具体的实现方案(具体参见:谈谈如何使用Netty开发实现高性能的RPC服务器).在文章的最后 ...

  3. SQL性能优化

    引言: 以前在面试的过程中,总有面试官问道:你做过sql性能优化吗?对此,我的答复是没有.一次没有不是自己的错误,两次也不是,但如果是多次呢?今天痛下决心,把有关sql性能优化的相关知识总结一下,以便 ...

  4. Tair LDB基于Prefixkey中期范围内查找性能优化项目总结

    "Tair LDB基于Prefixkey该范围内查找性能优化"该项目是仅一个月.这个月主要是熟悉项目..以下从几个方面总结下个人在该项目上所做的工作及自己的个人所得所感. 项目工作 ...

  5. 15套java架构师、集群、高可用、高可扩展、高性能、高并发、性能优化、Spring boot、Redis、ActiveMQ、Nginx、Mycat、Netty、Jvm大型分布式项目实战视频教程

    * { font-family: "Microsoft YaHei" !important } h1 { color: #FF0 } 15套java架构师.集群.高可用.高可扩展. ...

  6. 15套java互联网架构师、高并发、集群、负载均衡、高可用、数据库设计、缓存、性能优化、大型分布式 项目实战视频教程

    * { font-family: "Microsoft YaHei" !important } h1 { color: #FF0 } 15套java架构师.集群.高可用.高可扩 展 ...

  7. java架构师负载均衡、高并发、nginx优化、tomcat集群、异步性能优化、Dubbo分布式、Redis持久化、ActiveMQ中间件、Netty互联网、spring大型分布式项目实战视频教程百度网盘

    15套Java架构师详情 * { font-family: "Microsoft YaHei" !important } h1 { background-color: #006; ...

  8. 15套java架构师、集群、高可用、高可扩 展、高性能、高并发、性能优化Redis、ActiveMQ、Nginx、Mycat、Netty、Jvm大型分布式项目实战视频教程

    * { font-family: "Microsoft YaHei" !important } h1 { color: #FF0 } 15套java架构师.集群.高可用.高可扩 展 ...

  9. 常见性能优化策略的总结 good

    阅读目录 代码 数据库 缓存 异步 NoSQL JVM调优 多线程与分布式 度量系统(监控.报警.服务依赖管理) 案例一:商家与控制区关系的刷新job 案例二:POI缓存设计与实现 案例三:业务运营后 ...

随机推荐

  1. jeecg随笔

    1.根据数据字典code查找该字典下的元素: SELECT typecode,typename from t_s_type where typegroupid=(select id from t_s_ ...

  2. js函数节流和防抖的理解与实现

    一:函数防抖1.理解:触发高频事件后n秒内函数只会执行一次,如果n秒内高频事件再次被触发,则重新计算时间2.思路:每次触发事件时都取消之前的延时调用方法 3.实现: function debounce ...

  3. weight权重的属性

    权重是把屏幕剩余空间按比例分配 控件使用0dp,则实际的宽度比就等于权重比 控件wrap_content,那么权重越大,位置占的越多,再小不过wrap_content 控件match_parent,那 ...

  4. UML绘图工具

    画UML图与写文章差不多,都是把自己的思想描述给别人看,关键在于思路和条理,图好看与否就是看你的字是否规范,至于工具,就像你用什么笔,不算非常重要. 目前市场上常见的建模工具有StarUML,IBM ...

  5. [Kerberos] Kerberos教程(二)

    4 Kerberos操作 最后,在获得前面段落中描述的概念后,可以讨论Kerberos如何运作.我们将通过列出和描述在身份验证期间在客户端和KDC之间以及客户端和应用程序服务器之间的每个数据包来执行此 ...

  6. spark学习中一些小问题---1

    1.linux文件查找命令.这个很关键 find / -name employees.json 2.hdfs命令上传整个文件夹或文件 hadoop dfs -put /home/root/apache ...

  7. JAVA 基础编程练习题8 【程序 8 输入数字求和】

    8 [程序 8 输入数字求和] 题目:求 s=a+aa+aaa+aaaa+aa...a 的值,其中 a 是一个数字.例如 2+22+222+2222+22222(此时共有 5 个 数相加),几个数相加 ...

  8. Cloudera Manager产品介绍

    一.Cloudera Manager简介 Cloudera Manager(后面简称CM)是CDH(Cloudera’s Distribution Including Apache Hadoop)市场 ...

  9. 直连路由onlink

    根据路由器学习路由信息.生成并维护路由表的方法包括直连路由(Direct).静态路由(Static)和动态路由(Dynamic).直连路由:路由器接口所连接的子网的路由方式称为直连路由:非直连路由:通 ...

  10. CentOS下安装Docker CE教程

    一.安装前准备 1.硬件要求 CentOS 7(64-bit),内核版本不能低于3.10: CentOS 6.5(64-bit或更新的版本),内核版本为 2.6.32-431 或者更高版本,一般不建议 ...