独悲须要忍受。快乐须要分享
对Linux协议栈多次perf的结果,我无法忍受conntrack的性能,然而它的功能是如此强大,以至于我无法对其割舍,我想自己实现一个高速流表。可是我不得不抛弃依赖于conntrack的诸多功能。比方state match。Linux NAT等,诚然。我尽管对NAT也是抱怨太多,但无论如何。不是还有非常多人在用它吗。
       以前,我针对conntrack查找做过一个基于离线统计的优化,其思路非常easy,就使用动态的计算模式取代统一的hash算法。我事先会对经过该BOX的全部五元组进行採样记录,然后离线分析这些数据,比方将五元组拼接成一个32源IP地址+32位目标IP地址+8位协议号+16位源port+16位目标port的104位的长串(在我的实现中,我忽略了源port。由于它是一个易变量,值得被我任性地忽略)。然后依据hash桶的大小,比方说是N,以logN位为一个窗体大小在104位的串上滑动,找出相异数量最大的区间,以此区间为模区间,这样就能够将数据流均匀分布在各个hash桶中,假设数据流过多导致冲突链表过长。能够建立多维嵌套hash,把这个hash表倒过来看,它是多么像一棵平衡N叉树啊,N叉Trie树不就是这回事吗?这里的hash函数就是“取某些位”,这重新展示了Trie与hash的统一。
       以上的优化尽管优美,可是却还是复杂了,这个优化思路是我从硬件cache的设计思路中借鉴的。可是和硬件cache比方CPU cache相比,软件的相似方式效果大打折扣,原因在于软件处理hash冲突的时候仅仅能遍历或者查找,而硬件却能够同一时候进行。请学校里面的不要觉得是算法不够优越。这是物理本质决定的。

硬件使用的是门电路,流动的是电流。而电流是像水流一样并行连通的,软件使用的逻辑。流动的是步骤,这就是算法。算法就是一系列的逻辑步骤的组合,当然,也有非常多复杂的所谓并行算法,可是据我所知。非常多效果并不好,复杂带来了很多其它的复杂,终于经不起继续复杂,仅仅好作罢,另外,这么简单个事儿。搞复杂算法有点大炮打苍蝇了。

nf_conntrack的简单优化-添加一个cache

假设什么东西和兴许的处理速率不匹配,成为了瓶颈。那么就添加一个cache来平滑这样的差异。CPU cache就是利用了这个思路。对于nf_conntrack的效率问题,我们也应该使用相同的思路。可是详细怎么做。还是须要起码的一些哪怕是定性的分析。
       假设你用tcpdump抓包。就会发现。结果差点儿总是一连串连续被抓取的数据包属于同一个五元组数据流,可是也不绝对。有时会有一个数据包插入到一个流中。一个非常合理的抓包结果可能是以下这个样子:
数据流a 正方向
数据流a 正方向
数据流a 反方向
数据流a 正方向
数据流c 正方向
数据流a 反方向
数据流a 发方向
数据流b 反方向
数据流b 正方向
数据流 正方向
....
看出规律了吗?数据包到达BOX遵循非严格意义上的时间局部性,也就是属于一个流的数据包会持续到达。至于空间局部性,非常多人都说不明显,可是假设你细致分析数据流a,b,c。d...的源/目标IP元组,你会发现它们的空间局部性,这是TCAM硬件转发表设计的根本原则。TCAM中“取某些位”中“某些位”说明这些位是空间上最分散的局部。这是一种对空间局部性的逆向运用,比方核心传输网上,你会发现大量的IP都是去往北美或者北欧的。

我本希望在本文中用数学和统计学来阐述这一规律,可是这个行为实在不适合在一篇大众博客中进行,当有人面试我的时候问到我这个问题,我也仅仅能匆匆几句话带过,然后假设须要,我会用电邮的方式来深入解析,可是对于一篇博客。这样的方式显得卖弄了,并且会失去非常多读者,自然也就没有人为我提意见了。

博客中最重要的就是高速给出结果,也就是该怎么做。言归正传。

假设说上述基于“空间局部性逆向利用”的“取某些位hash”的优化是原自“效率来自规则”这个定律的话,那么规则的代价就是复杂化。这个复杂化让我无法继续。

另一个比这个定律更加普适的原则就是“效率来自简单”,我喜欢简单的东西和简单的人,这次,我再次证明了我的正确。

在继续之前,我会先简单描写叙述一下nf_conntrack的瓶颈究竟在哪。

1.nf_conntrack的正反向tuple使用一个hash表,插入,删除。改动操作须要全局的lock进行保护。这会赞成大量的串行化操作。
2.nf_conntrack的hash表使用了jhash算法。这样的算法操作步骤太多,假设conntrack数量少,hash操作将会消耗巨大的性能。
[Tips:假设你了解password学中的DES/AES等对称加密算法,就会明确。替换。倒置。异或操作可数据完毕最佳混淆,使得输出与输出无关。从而达到最佳散列,然而这效果的代价就是操作复杂化了,加解密效率问题多在此。这样的操作是如此规则(各种盒)以至于全然能够用硬件电路实现,可是假设没有这样的硬件使用CPU的话。这样的操作是极其消耗CPU的,jhash也是如此,尽管不非常。]
3.nf_conntrack表在多个CPU间是全局的,这会涉及到数据同步的问题。尽管能够通过RCU最大限度缓解,但万一有人写它们呢。

鉴于以上。逐步击破,解决方式就有了。

1.cache的构建基于每CPU一个。这全然符合cache的本地化设计原则。CPU cache不也如此吗。
2.cache尽可能小。保存最有可能命中的数据流项。同一时候保证cache缺失的代价不至于过大。

3.建立一个合理的cache替换自适应原则,保证在位者谋其职,不思进取者自退位的原则


我的设计思路就是以上这些,在逐步落实的过程中,我起初仅仅保留了一个cache项。也就是最后一次在conntrack hash表中被找到的那个项。这全然符合时间局部性,然而在我測试的时候发现。假设网络中有诸如ICMP这类慢速流的话。cache抖动会非常厉害,和TCP流比起来,ICMP太慢,可是依照排队原则,它终究会插队到一个TCP流中间,造成cache替换,为了避免这样的令人悲哀的情况,我为conntrack项。即conn结构体添加了时间戳字段,每次hash查找到的时候。用当时的jiffers减去该时间戳字段。同一时候更新这个字段为当前jiffers,仅仅有当这个差值小于一个预定值的时候。才会运行cache替换,这个值能够通过网络带宽加权获得。
       可是这样就完美了吗?远不!

考虑到CPU cache的设计,我发现conntrack cache全然不同,对于CPU。由于虚拟内存机制。cache里面保存的肯定来自同一个进程的地址空间(不考虑更复杂的CPU cache原理...),因此除非发生分支跳转或者函数调用,时间局部性是一定的。可是对于网络数据包,全然是排队论统计决定的,全部的数据包的命名空间就是全世界的IP地址集合。指不定哪一会儿就会有随意流的数据包插入进来。最常见的一种情况就是数据流切换,比方数据流a和数据流b的发送速率,经过的网络带宽实力相当。它们非常有可能交替到达。或者间隔两三个数据包交替到达,这样的情况下。你要照应谁呢?这就是第三个原则:效率来自公平。

因此。我的终于设计是以下的样子:

1.cache是一个链表,该链表的长度是一个值得微调的參数
cache链表太短:流项频繁在conntrack hash表和cache中跳动被替换。

cache链表太长:对待无法命中cache的流项。cache缺失代价太高。
胜者原则:胜者通吃。

社会心理学家觉得。“马太效应”是个既有消极作用又有积极作用的社会心理现象。

其消极作用是:名人与未出名者干出相同的成绩。前者往往上级表扬。记者採訪,求教者和訪问者接踵而至,各种桂冠也一顶接一顶地飘来,结果往往使当中一些人因没有清醒的自我认识和没有理智态度而居功自傲,在人生的道路上跌跟头;而后者则无人问津,甚至还会遭受非难和嫉妒。其积极作用是:其">凡有的,还要加给他叫他多余。没有的,连他全部的也要夺过来。(《马太福音》)均衡原则1-针对胜者:遍历cache链表的时间不能比标准hash计算+遍历冲突链表的时间更长(平均情况)。
均衡原则2-针对败者:假设遍历了链表没有命中,尽管损失了些不该损失的时间,可是把这样的损失维持在一个能够接受的范围内。

效果:数据流到达速率越快就越easy以极低的代价命中cache。数据流达到速率越慢越不easy命中cache,然而也不用付出高昂的代价。

2.基于时间戳的cache替换原则
仅仅有连续的数据包到达时间间隔小于某个动态计算好的值的时候。才会运行cache替换。

我的中间步骤測试代码例如以下:

//改动net/netfilter/nf_conntrack_core.c
//Email:marywangran@126.com //1.定义
#define A
#ifdef A
/*
* MAX_CACHE动态计算原则:
* cache链表长度 = 平均冲突链表长度/3, 当中:
* 平均冲突链表长度 = net.nf_conntrack_max/net.netfilter.nf_conntrack_buckets
* 3 = 经验值
*
*/
#define MAX_CACHE 4 struct conntrack_cache {
struct nf_conntrack_tuple_hash *caches[MAX_CACHE];
}; DEFINE_PER_CPU(struct conntrack_cache, conntrack_cache); #endif //2.改动resolve_normal_ct
static inline struct nf_conn *
resolve_normal_ct(struct net *net,
struct sk_buff *skb,
unsigned int dataoff,
u_int16_t l3num,
u_int8_t protonum,
struct nf_conntrack_l3proto *l3proto,
struct nf_conntrack_l4proto *l4proto,
int *set_reply,
enum ip_conntrack_info *ctinfo)
{
struct nf_conntrack_tuple tuple;
struct nf_conntrack_tuple_hash *h;
struct nf_conn *ct;
#ifdef A
int i;
struct conntrack_cache *cache;
#endif if (!nf_ct_get_tuple(skb, skb_network_offset(skb),
dataoff, l3num, protonum, &tuple, l3proto,
l4proto)) {
pr_debug("resolve_normal_ct: Can't get tuple\n");
return NULL;
} #ifdef A cache = &__get_cpu_var(conntrack_cache); rcu_read_lock(); if (0 /* 优化3 */) {
goto slowpath;
} for (i = 0; i < MAX_CACHE; i++) {
struct nf_conntrack_tuple_hash *ch = cache->caches[i];
struct nf_conntrack_tuple_hash *ch0 = cache->caches[0];
if (ch && nf_ct_tuple_equal(&tuple, &ch->tuple)) {
ct = nf_ct_tuplehash_to_ctrack(ch);
if (unlikely(nf_ct_is_dying(ct) ||
!atomic_inc_not_zero(&ct->ct_general.use))) {
h = NULL;
goto slowpath;
}
else {
if (unlikely(!nf_ct_tuple_equal(&tuple, &ch->tuple))) {
nf_ct_put(ct);
h = NULL;
goto slowpath;
}
}
/*************************************** 优化1简单介绍 *****************************************/
/* 并不是直接提升到第一个。而是依据两次cache命中的间隔酌情提升,提升的步数与时间间隔成反比 */
/* 这就避免了cache队列本身的剧烈抖动。其实。命中的时间间隔假设能加权历史间隔值。效果更好 */
/*******************************************************************************************/
/*
* 基于时间局部性提升命中项的优先级
*/
if (i > 0 /* && 优化1 */) {
cache->caches[0] = ch;
cache->caches[i] = ch0;
}
h = ch;
}
}
ct = NULL; slowpath:
rcu_read_unlock(); if (!h)
#endif /* look for tuple match */
h = nf_conntrack_find_get(net, &tuple);
if (!h) {
h = init_conntrack(net, &tuple, l3proto, l4proto, skb, dataoff);
if (!h)
return NULL;
if (IS_ERR(h))
return (void *)h;
}
#ifdef A
else {
int j;
struct nf_conn *ctp;
struct nf_conntrack_tuple_hash *chp; /*********************** 优化2简单介绍 **************************/
/* 仅仅有连续两个数据包到达的时间间隔小于n时才会运行cache替换 */
/* 这是为了避免诸如ICMP之类的慢速流导致的cache抖动 */
/************************************************************/
if (0 /* 优化2 */) {
goto skip;
} /************************** 优化3简单介绍 *****************************/
/* 仅仅有在总的conntrack数量大于hash bucket数量的4倍时才启用cache */
/* 由于conntrack数量小的话,经过一次hash运算就能够一次定位。 */
/* 或者经过遍历非常短的冲突链表就可以定位,使用cache反而减少了性能 */
/******************************************************************/
if (0 /* 优化3 */) {
goto skip;
} ct = nf_ct_tuplehash_to_ctrack(h);
nf_conntrack_get(&ct->ct_general);
chp = cache->caches[MAX_CACHE-1]; for (j = MAX_CACHE-1; j > 0; j--) {
cache->caches[j] = cache->caches[j-1];
}
cache->caches[0] = h;
if (chp) {
ctp = nf_ct_tuplehash_to_ctrack(chp);
nf_conntrack_put(&ctp->ct_general);
}
}
skip:
if (!ct) {
ct = nf_ct_tuplehash_to_ctrack(h);
}
#else
ct = nf_ct_tuplehash_to_ctrack(h);
#endif /* It exists; we have (non-exclusive) reference. */
if (NF_CT_DIRECTION(h) == IP_CT_DIR_REPLY) {
*ctinfo = IP_CT_ESTABLISHED + IP_CT_IS_REPLY;
/* Please set reply bit if this packet OK */
*set_reply = 1;
} else {
/* Once we've had two way comms, always ESTABLISHED. */
if (test_bit(IPS_SEEN_REPLY_BIT, &ct->status)) {
pr_debug("nf_conntrack_in: normal packet for %p\n", ct);
*ctinfo = IP_CT_ESTABLISHED;
} else if (test_bit(IPS_EXPECTED_BIT, &ct->status)) {
pr_debug("nf_conntrack_in: related packet for %p\n",
ct);
*ctinfo = IP_CT_RELATED;
} else {
pr_debug("nf_conntrack_in: new packet for %p\n", ct);
*ctinfo = IP_CT_NEW;
}
*set_reply = 0;
}
skb->nfct = &ct->ct_general;
skb->nfctinfo = *ctinfo;
return ct;
} //2.改动nf_conntrack_init
int nf_conntrack_init(struct net *net)
{
int ret;
#ifdef A
int i;
#endif if (net_eq(net, &init_net)) {
ret = nf_conntrack_init_init_net();
if (ret < 0)
goto out_init_net;
}
ret = nf_conntrack_init_net(net);
if (ret < 0)
goto out_net; if (net_eq(net, &init_net)) {
/* For use by REJECT target */
rcu_assign_pointer(ip_ct_attach, nf_conntrack_attach);
rcu_assign_pointer(nf_ct_destroy, destroy_conntrack); /* Howto get NAT offsets */
rcu_assign_pointer(nf_ct_nat_offset, NULL);
}
#ifdef A /* 初始化每CPU的conntrack cache队列 */
for_each_possible_cpu(i) {
int j;
struct conntrack_cache *cache;
cache = &per_cpu(conntrack_cache, i);
for (j = 0; j < MAX_CACHE; j++) {
cache->caches[j] = NULL;
}
} #endif
return 0; out_net:
if (net_eq(net, &init_net))
nf_conntrack_cleanup_init_net();
out_init_net:
return ret;
}

希望看到的人有机会測试一下。

效果和疑问能够直接发送到代码凝视中所看到的的邮箱。

一个Netfilter nf_conntrack流表查找的优化-为conntrack添加一个per cpu cache的更多相关文章

  1. 顺序表查找及其优化(Java)

    顺序表查找(线性查找): private static void Ordersearch(int[] arr,int num) { for (int i = 0; i < arr.length; ...

  2. OVS 精确删除流表

    OVS 精确删除流表 前言 今天看了sdnlab小姐姐的mininet教程之后,看到有一个下流表的操作,优先级没能下成功,然后回来实验一下,这个问题是解决了,不过遇到了一个小问题,ovs如何精确删除流 ...

  3. ovs源码阅读--流表查询原理

    背景 在ovs交换机中,报文的处理流程可以划分为一下三个步骤:协议解析,表项查找和动作执行,其中最耗时的步骤在于表项查找,往往一个流表中有数目巨大的表项,如何根据数据报文的信息快速的查找到对应的流表项 ...

  4. Open vSwitch流表应用实战

    本文参考:Open vSwitch流表应用实战 一个通过改变流表下发而实现的互相通信实验. 实验目的: 掌握Open vSwitch下发流表操作: 掌握添加.删除流表命令以及设备通信的原理. 原理:. ...

  5. SQL数据库中把一个表中的数据复制到另一个表中

    1.如果是整个表复制表达如下: insert into table1 select  * from table2 2.如果是有选择性的复制数据表达如下: insert into table1(colu ...

  6. MySQL数据库添加一个字段

    MySQL数据库添加一个字段 1.添加一个字段 alter table tableName add 列名  数据类型; 2.添加一个字段设置默认值 alter table tableName add ...

  7. SQL Server 2005中的分区表(五):添加一个分区(转)

    所谓天下大事,分久必合,合久必分,对于分区表而言也一样.前面我们介绍过如何删除(合并)分区表中的一个分区,下面我们介绍一下如何为分区表添加一个分区. 为分区表添加一个分区,这种情况是时常会 发生的.比 ...

  8. SQL Server 2005中的分区表(五):添加一个分区

    所谓天下大事,分久必合,合久必分,对于分区表而言也一样.前面我们介绍过如何删除(合并)分区表中的一个分区,下面我们介绍一下如何为分区表添加一个分区. 为分区表添加一个分区,这种情况是时常会 发生的.比 ...

  9. Neutron 理解 (4): Neutron OVS OpenFlow 流表 和 L2 Population [Netruon OVS OpenFlow tables + L2 Population]

    学习 Neutron 系列文章: (1)Neutron 所实现的虚拟化网络 (2)Neutron OpenvSwitch + VLAN 虚拟网络 (3)Neutron OpenvSwitch + GR ...

随机推荐

  1. PHP mac xdebug配置

    PHP实现断点调试的条件 1. 需要PHP安装xdebug扩展 2. 修改PHP配置文件,开启xdebug扩展,并且对xdebug进行一些配置 3. 重启服务器如apach或nginx 4. 编译器配 ...

  2. 【Luogu】P3705新生舞会(费用流+分数规划+二分答案)

    题目链接 本来以为自己可以做出来,结果……打脸了 (貌似来wc立了好几个flag了,都没竖起来) 不过乱蒙能蒙出一个叫“分数规划”的东西的式子还是很开心的 观察$C=\frac{a_{1}+a_{2} ...

  3. Eclipse + Apache Axis2 发布RESTful WebService(三)第一个程序Hello Axis2 !(未成功)

    此路不通 Axis2发布SOAP WebService非常简单,建一个Dynamic Web Project,然后为它建一个Axis的Web Service(Tomcat7+JDK),就会生成Clas ...

  4. [SCOI2011]糖果 (差分约束)

    题目链接 Solution 差分约束乱搞就好了. 需要注意的地方: 对于大于等于的直接联等于,应为等于,因为对于我满足条件而言,等于总是最好的. 对于等于的,注意要建双向边. 然后要开 \(long~ ...

  5. [暑假集训--数位dp]cf55D Beautiful numbers

    Volodya is an odd boy and his taste is strange as well. It seems to him that a positive integer numb ...

  6. 单线程实现并发——协程,gevent模块

    一 并发的本质 1 切换 2 保存状态 二 协程的概念 协程,又称微线程,纤程.英文名Coroutine.单线程下实现并发,用户从应用程序级别控制单线程下任务的切换,注意一定是遇到I/O才切. 协程的 ...

  7. Django AUTHENTICATION_BACKENDS

    指定认证后端 Django维护一个”authentication backends”的列表用来测试认证.当调用 django.contrib.auth.authenticate() — Django将 ...

  8. select * from 为什么效率低?

    sql优化有很重要的一项叫做列裁剪(column pruning).如果不考虑索引,sql的执行算法大概分为sort-base和hash-base,不论是哪种,多出来的列都会带来很多无用的计算. “* ...

  9. vue.js源码学习分享(七)

    var _Set; /* istanbul ignore if */ if (typeof Set !== 'undefined' && isNative(Set)) { // use ...

  10. PXC部署,配置,操作原理

    参考:https://www.cnblogs.com/kevingrace/p/5685371.html?utm_source=itdadao&utm_medium=referra       ...