(转)一个非常好的epoll+线程池服务器Demo
Reply
转载自:http://zhangyafeikimi.javaeye.com/blog/285193 [cpp]
/**
张亚霏修改 文件名:epoll_demo.c
编译: gcc epoll_demo.c -pthread 程序源码如下(请自行编辑宏定义SERVER_IP为自己的IP):
*/ /*Linux 2.6 x86_64 only*/ #include <stdio.h>
#include <stdlib.h>
#include <string.h> #include <time.h>
#include <sys/epoll.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <netdb.h>
#include <pthread.h>
#include <errno.h> /*线程池的线程数量*/
#define THREAD_MAX 1 /*监听端口*/
#define LISTEN_PORT 8000 /*
监听端口的数量,从LISTEN_PORT到LISTEN_PORT+LISTEN_MAX-1
*/
#define LISTEN_MAX 1 #define SERVER_IP "127.0.0.1" typedef struct
{
char ip4[];
int port;
int fd;
} listen_info; //服务器参数
static listen_info s_listens[LISTEN_MAX]; //线程池参数
static unsigned int s_thread_para[THREAD_MAX][];//线程参数
static pthread_t s_tid[THREAD_MAX];//线程ID
pthread_mutex_t s_mutex[THREAD_MAX];//线程锁 //私有函数
static int init_thread_pool(void);
static int init_listen4(char *ip4, int port, int max_link); //线程函数
void* test_server4(unsigned int thread_para[]); int main(int argc, char *argv[])//客户端驱动
{
//临时变量
int i, j, rc; int sock_listen; //监听套接字
int sock_cli; //客户端连接
int listen_index; int epfd;
int nfds;
struct epoll_event ev;
struct epoll_event events[LISTEN_MAX]; socklen_t addrlen; //地址信息长度
struct sockaddr_in addr4; //IPv4地址结构 //线程池初始化
rc = init_thread_pool();
if ( != rc)
exit(-); //初始化服务监听
for (i = ; i < LISTEN_MAX; i++)
{
sprintf(s_listens[i].ip4, "%s", SERVER_IP);
s_listens[i].port = LISTEN_PORT + i;
//创建监听
rc = init_listen4(s_listens[i].ip4, s_listens[i].port, );
if ( > rc)
{
fprintf(stderr, "无法创建服务器监听于%s:%d\n", s_listens[i].ip4, s_listens[i].port);
perror(NULL);
exit(-);
}
s_listens[i].fd = rc;
} //设置集合
epfd = epoll_create();
for (i = ; i < LISTEN_MAX; i++)
{
//加入epoll事件集合
ev.events = EPOLLIN;
ev.data.u32 = i;//记录listen数组下标
if (epoll_ctl(epfd, EPOLL_CTL_ADD, s_listens[i].fd, &ev) < )
{
fprintf(stderr, "向epoll集合添加套接字失败(fd =%d)\r\n", rc);
exit(-);
}
} //服务循环
for ( ; ; )
{
//等待epoll事件
nfds = epoll_wait(epfd, events, LISTEN_MAX, -);
//处理epoll事件
for (i = ; i < nfds; i++)
{
//接收客户端连接
listen_index = events[i].data.u32;
sock_listen = s_listens[listen_index].fd;
addrlen = sizeof(struct sockaddr_in);
bzero(&addr4, addrlen);
sock_cli = accept(sock_listen, (struct sockaddr *)&addr4, &addrlen);
if ( > sock_cli)
{
fprintf(stderr, "接收客户端连接失败\n");
continue;
}
//查询空闲线程对
for (j = ; j < THREAD_MAX; j++)
{
if ( == s_thread_para[j][]) break;
}
if (j >= THREAD_MAX)
{
fprintf(stderr, "线程池已满, 连接将被放弃\r\n");
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli);
continue;
}
//复制有关参数
s_thread_para[j][] = ;//设置活动标志为"活动"
s_thread_para[j][] = sock_cli;//客户端连接
s_thread_para[j][] = listen_index;//服务索引
//线程解锁
pthread_mutex_unlock(s_mutex + j);
}//end of for(i;;)
}//end of for(;;) exit();
} static int init_thread_pool(void)
{
int i, rc; //初始化线程池参数
for (i = ; i < THREAD_MAX; i++)
{
s_thread_para[i][] = ;//设置线程占用标志为"空闲"
s_thread_para[i][] = i;//线程池索引
pthread_mutex_lock(s_mutex + i);//线程锁
} //创建线程池
for (i = ; i < THREAD_MAX; i++)
{
rc = pthread_create(s_tid + i, , (void *)test_server4, (void *)(s_thread_para[i]));
if ( != rc)
{
fprintf(stderr, "线程创建失败\n");
return(-);
}
} //成功返回
return();
} static int init_listen4(char *ip4, int port, int max_link)
{
//临时变量
int sock_listen4;
struct sockaddr_in addr4;
unsigned int optval;
struct linger optval1; //初始化数据结构
bzero(&addr4, sizeof(addr4));
inet_pton(AF_INET, ip4, &(addr4.sin_addr));
addr4.sin_family = AF_INET;
addr4.sin_port = htons(port); //创建SOCKET
sock_listen4 = socket(AF_INET, SOCK_STREAM, );
if ( > sock_listen4) return(-); //设置SO_REUSEADDR选项(服务器快速重起)
optval = 0x1;
setsockopt(sock_listen4, SOL_SOCKET, SO_REUSEADDR, &optval, ); //设置SO_LINGER选项(防范CLOSE_WAIT挂住所有套接字)
optval1.l_onoff = ;
optval1.l_linger = ;
setsockopt(sock_listen4, SOL_SOCKET, SO_LINGER, &optval1, sizeof(struct linger)); if ( > bind(sock_listen4, (struct sockaddr *)&addr4, sizeof(addr4)))
{
close(sock_listen4);
return(-);
} if ( > listen(sock_listen4, max_link))
{
close(sock_listen4);
return(-);
} return(sock_listen4);
} void * test_server4(unsigned int thread_para[])
{
//临时变量
int pool_index; //线程池索引
int sock_cli; //客户端连接
int listen_index; //监听索引 char buff[]; //传输缓冲区
char *p;
int i, j, len; //线程脱离创建者
pthread_detach(pthread_self());
pool_index = thread_para[]; wait_unlock: pthread_mutex_lock(s_mutex + pool_index);//等待线程解锁 //线程变量内容复制
sock_cli = thread_para[];//客户端连接
listen_index = thread_para[];//监听索引 //接收请求
len = recv(sock_cli, buff, , MSG_NOSIGNAL); //构造响应
p = buff;
//HTTP头
p += sprintf(p, "HTTP/1.1 200 OK\r\n");
p += sprintf(p, "Content-Type: text/html\r\n");
p += sprintf(p, "Connection: closed\r\n\r\n");
//页面
p += sprintf(p, "<html>\r\n<head>\r\n");
p += sprintf(p, "<meta content=\"text/html; charset=GBK\" http-equiv=\"Content-Type\">\r\n");
p += sprintf(p, "</head>\r\n");
p += sprintf(p, "<body style=\"background-color: rgb(229, 229, 229);\">\r\n"); p += sprintf(p, "<center>\r\n");
p += sprintf(p, "<H3>连接状态</H3>\r\n");
p += sprintf(p, "<p>服务器地址 %s:%d</p>\r\n", s_listens[listen_index].ip4, s_listens[listen_index].port);
j = ;
for (i = ; i < THREAD_MAX; i++)
{
if ( != s_thread_para[i][]) j++;
}
p += sprintf(p, "<H3>线程池状态</H3>\r\n");
p += sprintf(p, "<p>线程池总数 %d 活动线程总数 %d</p>\r\n", THREAD_MAX, j);
p += sprintf(p, "</center></body></html>\r\n");
len = p – buff; //发送响应
send(sock_cli, buff, len, MSG_NOSIGNAL); //释放连接
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli); //线程任务结束
thread_para[] = ;//设置线程占用标志为"空闲"
goto wait_unlock; pthread_exit(NULL);
}
[/cpp]

【Networking】(转)一个非常好的epoll+线程池服务器Demo的更多相关文章

  1. 使用C++11实现一个半同步半异步线程池

    前言 C++11之前我们使用线程需要系统提供API.posix线程库或者使用boost提供的线程库,C++11后就加入了跨平台的线程类std::thread,线程同步相关类std::mutex.std ...

  2. Linux中epoll+线程池实现高并发

    服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下,每个线程 ...

  3. 高并发的epoll+线程池,线程池专注实现业务

    我们知道,服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下 ...

  4. 使用C++11 开发一个半同步半异步线程池

    摘自:<深入应用C++11>第九章 实际中,主要有两种方法处理大量的并发任务,一种是一个请求由系统产生一个相应的处理请求的线程(一对一) 另外一种是系统预先生成一些用于处理请求的进程,当请 ...

  5. 【网络编程】之十二、wsaeventselect+线程池 服务器实现

    #include<WinSock2.h> #include<iostream> using namespace std; #pragma comment(lib, " ...

  6. 分享一个自制的 .net线程池

    扯淡 由于项目需求,需要开发一些程序去爬取一些网站的信息,算是小爬虫程序吧.爬网页这东西是要经过网络传输,如果程序运行起来串行执行请求爬取,会很慢,我想没人会这样做.为了提高爬取效率,必须使用多线程并 ...

  7. 二 Java利用等待/通知机制实现一个线程池

    接着上一篇博客的 一Java线程的等待/通知模型 ,没有看过的建议先看一下.下面我们用等待通知机制来实现一个线程池 线程的任务就以打印一行文本来模拟耗时的任务.主要代码如下: 1  定义一个任务的接口 ...

  8. [转]使用VC/MFC创建一个线程池

    许多应用程序创建的线程花费了大量时间在睡眠状态来等待事件的发生.还有一些线程进入睡眠状态后定期被唤醒以轮询工作方式来改变或者更新状态信息.线程池可以让你更有效地使用线程,它为你的应用程序提供一个由系统 ...

  9. 一个boost底下的线程池

    Boost的thread库中目前并没有提供线程池,我在sorceforge上找了一个用boost编写的线程池.该线程池和boost结合的比较好,并且提供了多种任务执行策略,使用也非常简单. 下载地址: ...

随机推荐

  1. UVA 1400."Ray, Pass me the dishes!" -分治+线段树区间合并(常规操作+维护端点)并输出最优的区间的左右端点-(洛谷 小白逛公园 升级版)

    "Ray, Pass me the dishes!" UVA - 1400 题意就是线段树区间子段最大和,线段树区间合并,但是这道题还要求输出最大和的子段的左右端点.要求字典序最小 ...

  2. [hdu3934] 凸包 旋转卡壳

    大致题意: 求多边形的最大内接三角形 旋转卡壳 模板题 #include<cstdio> #include<iostream> #include<cstring> ...

  3. Markdown 格式如何转换成 Word?

    参考资料:https://www.zhihu.com/question/22972843/answer/136008865 markdown语法简洁,写作效率极高,非常适合网络博客.邮件.笔记等非正式 ...

  4. XV6操作系统代码阅读心得(三):锁

    锁是操作系统中实现进程同步的重要机制. 基本概念 临界区(Critical Section)是指对共享数据进行访问与操作的代码区域.所谓共享数据,就是可能有多个代码执行流并发地执行,并在执行中可能会同 ...

  5. Prime Number CodeForces - 359C (属于是数论)

    Simon has a prime number x and an array of non-negative integers a1, a2, ..., an. Simon loves fracti ...

  6. 【主席树】BZOJ3932-[CQOI2015]任务查询系统

    [题目大意] 超级计算机中的任务用三元组(Si,Ei,Pi)描述,(Si,Ei,Pi)表示任务从第Si秒开始,在第Ei秒后结束(第Si秒和Ei秒任务也在运行),其优先级为Pi.询问,第Xi秒正在运行的 ...

  7. JQ 数组动态添值,对象动态添值,判断数组/对象是否为空

    1.数组动态添值 首先声明一个空数组:var data = new Array(); 向数组中添值 :data.push('添加的值'); 示例:

  8. OpenVPN Server端配置文件详细说明(转)

    本文将介绍如何配置OpenVPN服务器端的配置文件.在Windows系统中,该配置文件一般叫做server.ovpn:在Linux/BSD系统中,该配置文件一般叫做server.conf.虽然配置文件 ...

  9. 解决数据库 Table 'content_tags' is marked as crashed and should be repaired 表损坏问题

    今天突然网站TAG页面打不开了,打开debug,发现提示 Table 'content_tags' is marked as crashed and should be repaired 这样的错误 ...

  10. wpf 分别用前台和后台 两种方法 绘制矩形 填充

    xaml: <Window x:Class="WpfApplication1.MainWindow" xmlns="http://schemas.microsoft ...