目前网上关于memcached的分析主要是内存管理部分,下面对memcached的线程模型做下简单分析
有不对的地方还请大家指正,对memcahced和libevent不熟悉的请先google之



先看下memcahced启动时线程处理的流程





memcached的多线程主要是通过实例化多个libevent实现的,分别是一个主线程和n个workers线程

无论是主线程还是workers线程全部通过libevent管理网络事件,实际上每个线程都是一个单独的libevent实例



主线程负责监听客户端的建立连接请求,以及accept 连接

workers线程负责处理已经建立好的连接的读写等事件



先看一下大致的图示:





首先看下主要的数据结构(thread.c):

  1. /* An item in the connection queue. */
  2. typedef struct conn_queue_item CQ_ITEM;
  3. struct conn_queue_item {
  4. int     sfd;
  5. int     init_state;
  6. int     event_flags;
  7. int     read_buffer_size;
  8. int     is_udp;
  9. CQ_ITEM *next;
  10. };

CQ_ITEM 实际上是主线程accept后返回的已建立连接的fd的封装

  1. /* A connection queue. */
  2. typedef struct conn_queue CQ;
  3. struct conn_queue {
  4. CQ_ITEM *head;
  5. CQ_ITEM *tail;
  6. pthread_mutex_t lock;
  7. pthread_cond_t  cond;
  8. };

CQ是一个管理CQ_ITEM的单向链表

  1. typedef struct {
  2. pthread_t thread_id;        /* unique ID of this thread */
  3. struct event_base *base;    /* libevent handle this thread uses */
  4. struct event notify_event;  /* listen event for notify pipe */
  5. int notify_receive_fd;      /* receiving end of notify pipe */
  6. int notify_send_fd;         /* sending end of notify pipe */
  7. CQ  new_conn_queue;         /* queue of new connections to handle */
  8. } LIBEVENT_THREAD;

这是memcached里的线程结构的封装,可以看到每个线程都包含一个CQ队列,一条通知管道pipe

和一个libevent的实例event_base



另外一个重要的最重要的结构是对每个网络连接的封装conn

  1. typedef struct{
  2. int sfd;
  3. int state;
  4. struct event event;
  5. short which;
  6. char *rbuf;
  7. ... //这里省去了很多状态标志和读写buf信息等
  8. }conn;

memcached主要通过设置/转换连接的不同状态,来处理事件(核心函数是drive_machine)



下面看下线程的初始化流程:



在memcached.c的main函数中,首先对主线程的libevent做了初始化

  1. /* initialize main thread libevent instance */
  2. main_base = event_init();

然后初始化所有的workers线程,并启动,启动过程细节在后面会有描述

  1. /* start up worker threads if MT mode */
  2. thread_init(settings.num_threads, main_base);

接着主线程调用(这里只分析tcp的情况,目前memcached支持udp方式)

  1. server_socket(settings.port, 0)

这个方法主要是封装了创建监听socket,绑定地址,设置非阻塞模式并注册监听socket的

libevent 读事件等一系列操作



然后主线程调用

  1. /* enter the event loop */
  2. event_base_loop(main_base, 0);

这时主线程启动开始通过libevent来接受外部连接请求,整个启动过程完毕



下面看看thread_init是怎样启动所有workers线程的,看一下thread_init里的核心代码

  1. void thread_init(int nthreads, struct event_base *main_base) {
  2. //。。。省略
  3. threads = malloc(sizeof(LIBEVENT_THREAD) * nthreads);
  4. if (! threads) {
  5. perror("Can't allocate thread descriptors");
  6. exit(1);
  7. }
  8. threads[0].base = main_base;
  9. threads[0].thread_id = pthread_self();
  10. for (i = 0; i < nthreads; i++) {
  11. int fds[2];
  12. if (pipe(fds)) {
  13. perror("Can't create notify pipe");
  14. exit(1);
  15. }
  16. threads[i].notify_receive_fd = fds[0];
  17. threads[i].notify_send_fd = fds[1];
  18. setup_thread(&threads[i]);
  19. }
  20. /* Create threads after we've done all the libevent setup. */
  21. for (i = 1; i < nthreads; i++) {
  22. create_worker(worker_libevent, &threads[i]);
  23. }
  24. }

threads的声明是这样的

static LIBEVENT_THREAD *threads;



thread_init首先malloc线程的空间,然后第一个threads作为主线程,其余都是workers线程

然后为每个线程创建一个pipe,这个pipe被用来作为主线程通知workers线程有新的连接到达



看下setup_thread

  1. static void setup_thread(LIBEVENT_THREAD *me) {
  2. if (! me->base) {
  3. me->base = event_init();
  4. if (! me->base) {
  5. fprintf(stderr, "Can't allocate event base\n");
  6. exit(1);
  7. }
  8. }
  9. /* Listen for notifications from other threads */
  10. event_set(&me->notify_event, me->notify_receive_fd,
  11. EV_READ | EV_PERSIST, thread_libevent_process, me);
  12. event_base_set(me->base, &me->notify_event);
  13. if (event_add(&me->notify_event, 0) == -1) {
  14. fprintf(stderr, "Can't monitor libevent notify pipe\n");
  15. exit(1);
  16. }
  17. cq_init(&me->new_conn_queue);
  18. }

setup_thread主要是创建所有workers线程的libevent实例(主线程的libevent实例在main函数中已经建立)



由于之前 threads[0].base = main_base;所以第一个线程(主线程)在这里不会执行event_init()

然后就是注册所有workers线程的管道读端的libevent的读事件,等待主线程的通知

最后在该方法里将所有的workers的CQ初始化了



create_worker实际上就是真正启动了线程,pthread_create调用worker_libevent方法,该方法执行

event_base_loop启动该线程的libevent



这里我们需要记住每个workers线程目前只在自己线程的管道的读端有数据时可读时触发,并调用

thread_libevent_process方法



看一下这个函数

  1. static void thread_libevent_process(int fd, short which, void *arg){
  2. LIBEVENT_THREAD *me = arg;
  3. CQ_ITEM *item;
  4. char buf[1];
  5. if (read(fd, buf, 1) != 1)
  6. if (settings.verbose > 0)
  7. fprintf(stderr, "Can't read from libevent pipe\n");
  8. item = cq_peek(&me->new_conn_queue);
  9. if (NULL != item) {
  10. conn *c = conn_new(item->sfd, item->init_state, item->event_flags,
  11. item->read_buffer_size, item->is_udp, me->base);
  12. 。。。//省略
  13. }
  14. }

函数参数的fd是这个线程的管道读端的描述符

首先将管道的1个字节通知信号读出(这是必须的,在水平触发模式下如果不处理该事件,则会被循环通知,知道事件被处理)



cq_peek是从该线程的CQ队列中取队列头的一个CQ_ITEM,这个CQ_ITEM是被主线程丢到这个队列里的,item->sfd是已经建立的连接

的描述符,通过conn_new函数为该描述符注册libevent的读事件,me->base是代表自己的一个线程结构体,就是说对该描述符的事件

处理交给当前这个workers线程处理,conn_new方法的最重要的内容是:

  1. conn *conn_new(const int sfd, const int init_state, const int event_flags,
  2. const int read_buffer_size, const bool is_udp, struct event_base *base) {
  3. 。。。
  4. event_set(&c->event, sfd, event_flags, event_handler, (void *)c);
  5. event_base_set(base, &c->event);
  6. c->ev_flags = event_flags;
  7. if (event_add(&c->event, 0) == -1) {
  8. if (conn_add_to_freelist(c)) {
  9. conn_free(c);
  10. }
  11. perror("event_add");
  12. return NULL;
  13. }
  14. 。。。
  15. }

可以看到新的连接被注册了一个事件(实际是EV_READ|EV_PERSIST),由当前线程处理(因为这里的event_base是该workers线程自己的)

当该连接有可读数据时会回调event_handler函数,实际上event_handler里主要是调用memcached的核心方法drive_machine



最后看看主线程是如何通知workers线程处理新连接的,主线程的libevent注册的是监听socket描述字的可读事件,就是说

当有建立连接请求时,主线程会处理,回调的函数是也是event_handler(因为实际上主线程也是通过conn_new初始化的监听socket 的libevent可读事件)



最后看看memcached网络事件处理的最核心部分- drive_machine

需要铭记于心的是drive_machine是多线程环境执行的,主线程和workers都会执行drive_machine

  1. static void drive_machine(conn *c) {
  2. bool stop = false;
  3. int sfd, flags = 1;
  4. socklen_t addrlen;
  5. struct sockaddr_storage addr;
  6. int res;
  7. assert(c != NULL);
  8. while (!stop) {
  9. switch(c->state) {
  10. case conn_listening:
  11. addrlen = sizeof(addr);
  12. if ((sfd = accept(c->sfd, (struct sockaddr *)&addr, &addrlen)) == -1) {
  13. //省去n多错误情况处理
  14. break;
  15. }
  16. if ((flags = fcntl(sfd, F_GETFL, 0)) < 0 ||
  17. fcntl(sfd, F_SETFL, flags | O_NONBLOCK) < 0) {
  18. perror("setting O_NONBLOCK");
  19. close(sfd);
  20. break;
  21. }
  22. dispatch_conn_new(sfd, conn_read, EV_READ | EV_PERSIST,
  23. DATA_BUFFER_SIZE, false);
  24. break;
  25. case conn_read:
  26. if (try_read_command(c) != 0) {
  27. continue;
  28. }
  29. ....//省略
  30. }
  31. }

首先大家不到被while循环误导(大部分做java的同学都会马上联想到是个周而复始的loop)其实while通常满足一个

case后就会break了,这里用while是考虑到垂直触发方式下,必须读到EWOULDBLOCK错误才可以



言归正传,drive_machine主要是通过当前连接的state来判断该进行何种处理,因为通过libevent注册了读写时间后回调的都是

这个核心函数,所以实际上我们在注册libevent相应事件时,会同时把事件状态写到该conn结构体里,libevent进行回调时会把

该conn结构作为参数传递过来,就是该方法的形参



memcached里连接的状态通过一个enum声明

  1. enum conn_states {
  2. conn_listening,  /** the socket which listens for connections */
  3. conn_read,       /** reading in a command line */
  4. conn_write,      /** writing out a simple response */
  5. conn_nread,      /** reading in a fixed number of bytes */
  6. conn_swallow,    /** swallowing unnecessary bytes w/o storing */
  7. conn_closing,    /** closing this connection */
  8. conn_mwrite,     /** writing out many items sequentially */
  9. };

实际对于case conn_listening:这种情况是主线程自己处理的,workers线程永远不会执行此分支

我们看到主线程进行了accept后调用了

  dispatch_conn_new(sfd, conn_read, EV_READ | EV_PERSIST,DATA_BUFFER_SIZE, false);



  这个函数就是通知workers线程的地方,看看

  1. void dispatch_conn_new(int sfd, int init_state, int event_flags,
  2. int read_buffer_size, int is_udp) {
  3. CQ_ITEM *item = cqi_new();
  4. int thread = (last_thread + 1) % settings.num_threads;
  5. last_thread = thread;
  6. item->sfd = sfd;
  7. item->init_state = init_state;
  8. item->event_flags = event_flags;
  9. item->read_buffer_size = read_buffer_size;
  10. item->is_udp = is_udp;
  11. cq_push(&threads[thread].new_conn_queue, item);
  12. MEMCACHED_CONN_DISPATCH(sfd, threads[thread].thread_id);
  13. if (write(threads[thread].notify_send_fd, "", 1) != 1) {
  14. perror("Writing to thread notify pipe");
  15. }
  16. }

可以清楚的看到,主线程首先创建了一个新的CQ_ITEM,然后通过round robin策略选择了一个thread

并通过cq_push将这个CQ_ITEM放入了该线程的CQ队列里,那么对应的workers线程是怎么知道的呢



就是通过这个

write(threads[thread].notify_send_fd, "", 1)

向该线程管道写了1字节数据,则该线程的libevent立即回调了thread_libevent_process方法(上面已经描述过)



然后那个线程取出item,注册读时间,当该条连接上有数据时,最终也会回调drive_machine方法,也就是

drive_machine方法的 case conn_read:等全部是workers处理的,主线程只处理conn_listening 建立连接这个



这部分代码确实比较多,没法全部贴出来,请大家参考源码,最新版本1.2.6,我省去了很多优化的地方

比如,每个CQ_ITEM被malloc时会一次malloc很多个,以减小碎片的产生等等细节。



时间仓促,有纰漏的地方,欢迎大家拍砖。

转:Memcached 线程部分源码分析的更多相关文章

  1. java多线程----线程池源码分析

    http://www.cnblogs.com/skywang12345/p/3509954.html 线程池示例 在分析线程池之前,先看一个简单的线程池示例. 1 import java.util.c ...

  2. Hbase WAL线程模型源码分析

    版权声明:本文由熊训德原创文章,转载请注明出处: 文章原文链接:https://www.qcloud.com/community/article/257 来源:腾云阁 https://www.qclo ...

  3. java多线程——线程池源码分析(一)

    本文首发于cdream的个人博客,点击获得更好的阅读体验! 欢迎转载,转载请注明出处. 通常应用多线程技术时,我们并不会直接创建一个线程,因为系统启动一个新线程的成本是比较高的,涉及与操作系统的交互, ...

  4. 线程池之ThreadPoolExecutor线程池源码分析笔记

    1.线程池的作用 一方面当执行大量异步任务时候线程池能够提供较好的性能,在不使用线程池的时候,每当需要执行异步任务时候是直接 new 一线程进行运行,而线程的创建和销毁是需要开销的.使用线程池时候,线 ...

  5. java线程池源码分析

    我们在关闭线程池的时候会使用shutdown()和shutdownNow(),那么问题来了: 这两个方法又什么区别呢? 他们背后的原理是什么呢? 线程池中线程超过了coresize后会怎么操作呢? 为 ...

  6. Java并发编程中线程池源码分析及使用

    当Java处理高并发的时候,线程数量特别的多的时候,而且每个线程都是执行很短的时间就结束了,频繁创建线程和销毁线程需要占用很多系统的资源和时间,会降低系统的工作效率. 参考http://www.cnb ...

  7. 【图灵学院10】高并发之java线程池源码分析

    1. 提纲 1)线程池的模块结构 2)示例&原理解析 2. 问题 1)线程池包含哪些东西 2)线程池的运作原理 3)调度线程池的运作原理 4)线程池怎么实现FixRate,FixDelay,他 ...

  8. 基于Netty的RPC架构学习笔记(五):netty线程模型源码分析(二)

    文章目录 小技巧(如何看开源框架的源码) 源码解析 阅读源码技巧 打印查看 通过打断点调试 查看调用栈 小技巧(如何看开源框架的源码) 一断点 二打印 三看调用栈 四搜索 源码解析 //设置nioso ...

  9. 线程池之ScheduledThreadPoolExecutor线程池源码分析笔记

    1.ScheduledThreadPoolExecutor 整体结构剖析. 1.1类图介绍 根据上面类图图可以看到Executor其实是一个工具类,里面提供了好多静态方法,根据用户选择返回不同的线程池 ...

随机推荐

  1. N体模拟数据可视化 LightningChart®

    N体模拟数据可视化 LightningChart ​ N体模拟也许是目前最先进的数据可视化类型之一.事实上,我们现在谈论的不再是以商业为中心的传统数据的可视化,现在它甚至超越了比如振动分析等先进数据源 ...

  2. [hdu6974]Destinations

    注意到一个人的三条链一定不会同时选(忽略仅选一个终点的限制),因为其有公共点(起点) 换言之,问题相当于给定$3m$条链,选择$m$条没有公共点的链,并最小化代价和 进一步的,显然也不存在多于$m$条 ...

  3. [cf1168E]Xor Permutations

    (与题目中下标不同,这里令下标为$[0,2^{k})$来方便运算) 根据异或的性质,显然有解的必要条件是$\bigoplus_{i=0}^{2^{k}-1}a_{i}=0$ 在此基础上,我们考虑构造- ...

  4. [atARC077F]SS

    (以下字符串下标从0开始,并定义$2s=s+s$) 考虑$f(S)$,即令$l=\max_{2i<|S|且S[0,i)=S[|S|-i,|S|)]}i$,则$f(S)=S+S[l,|S|-l)$ ...

  5. 第09章 MySQL子查询

    第09章 MySQL子查询 子查询指一个查询语句嵌套在另一个查询语句内部的查询,这个特性从MySQL 4.1开始引入. SQL 中子查询的使用大大增强了 SELECT 查询的能力,因为很多时候查询需要 ...

  6. key按键使用

    1. 按键实验 查询原理图可知KEY对应的按键和引脚,当KEY按下时,引脚为低电平,否则为高电平 2. 代码 2.1 GPIO 为了方便GPIO的编写,建立GPIO的文件夹和对应的.h和.c文件. b ...

  7. 洛谷 P6783 - [Ynoi2008] rrusq(KDT+势能均摊+根号平衡)

    洛谷题面传送门 首先显然原问题严格强于区间数颜色,因此考虑将询问离线下来然后用某些根号级别复杂度的数据结构.按照数颜色题目的套路,我们肯定要对于每种颜色维护一个前驱 \(pre\),那么答案可写作 \ ...

  8. [R]在dplyr函数的基础上编写函数-(3)tidyeval

    dplyr的优点很明显,数据框操作简洁,如filter(df, x == 1, y == 2, z == 3)等于df[df$x == 1 & df$y ==2 & df$z == 3 ...

  9. python-django-分页处理

    每个模型都有一个管理器,Manager 通过分页可以先加载一部分的数据内容,然后避免大量的查询带来的等待时间 应用场景是,排行榜,前十条或者 for i in range(100): ...: ... ...

  10. shell命令行——快捷键

    生活在 Bash shell 中,熟记以下快捷键,将极大的提高你的命令行操作效率. 编辑命令 Ctrl + a :移到命令行首 Ctrl + e :移到命令行尾 Ctrl + f :按字符前移(右向) ...