(转)一个非常好的epoll+线程池服务器Demo
Reply
转载自:http://zhangyafeikimi.javaeye.com/blog/285193 [cpp]
/**
张亚霏修改 文件名:epoll_demo.c
编译: gcc epoll_demo.c -pthread 程序源码如下(请自行编辑宏定义SERVER_IP为自己的IP):
*/ /*Linux 2.6 x86_64 only*/ #include <stdio.h>
#include <stdlib.h>
#include <string.h> #include <time.h>
#include <sys/epoll.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <netdb.h>
#include <pthread.h>
#include <errno.h> /*线程池的线程数量*/
#define THREAD_MAX 1 /*监听端口*/
#define LISTEN_PORT 8000 /*
监听端口的数量,从LISTEN_PORT到LISTEN_PORT+LISTEN_MAX-1
*/
#define LISTEN_MAX 1 #define SERVER_IP "127.0.0.1" typedef struct
{
char ip4[];
int port;
int fd;
} listen_info; //服务器参数
static listen_info s_listens[LISTEN_MAX]; //线程池参数
static unsigned int s_thread_para[THREAD_MAX][];//线程参数
static pthread_t s_tid[THREAD_MAX];//线程ID
pthread_mutex_t s_mutex[THREAD_MAX];//线程锁 //私有函数
static int init_thread_pool(void);
static int init_listen4(char *ip4, int port, int max_link); //线程函数
void* test_server4(unsigned int thread_para[]); int main(int argc, char *argv[])//客户端驱动
{
//临时变量
int i, j, rc; int sock_listen; //监听套接字
int sock_cli; //客户端连接
int listen_index; int epfd;
int nfds;
struct epoll_event ev;
struct epoll_event events[LISTEN_MAX]; socklen_t addrlen; //地址信息长度
struct sockaddr_in addr4; //IPv4地址结构 //线程池初始化
rc = init_thread_pool();
if ( != rc)
exit(-); //初始化服务监听
for (i = ; i < LISTEN_MAX; i++)
{
sprintf(s_listens[i].ip4, "%s", SERVER_IP);
s_listens[i].port = LISTEN_PORT + i;
//创建监听
rc = init_listen4(s_listens[i].ip4, s_listens[i].port, );
if ( > rc)
{
fprintf(stderr, "无法创建服务器监听于%s:%d\n", s_listens[i].ip4, s_listens[i].port);
perror(NULL);
exit(-);
}
s_listens[i].fd = rc;
} //设置集合
epfd = epoll_create();
for (i = ; i < LISTEN_MAX; i++)
{
//加入epoll事件集合
ev.events = EPOLLIN;
ev.data.u32 = i;//记录listen数组下标
if (epoll_ctl(epfd, EPOLL_CTL_ADD, s_listens[i].fd, &ev) < )
{
fprintf(stderr, "向epoll集合添加套接字失败(fd =%d)\r\n", rc);
exit(-);
}
} //服务循环
for ( ; ; )
{
//等待epoll事件
nfds = epoll_wait(epfd, events, LISTEN_MAX, -);
//处理epoll事件
for (i = ; i < nfds; i++)
{
//接收客户端连接
listen_index = events[i].data.u32;
sock_listen = s_listens[listen_index].fd;
addrlen = sizeof(struct sockaddr_in);
bzero(&addr4, addrlen);
sock_cli = accept(sock_listen, (struct sockaddr *)&addr4, &addrlen);
if ( > sock_cli)
{
fprintf(stderr, "接收客户端连接失败\n");
continue;
}
//查询空闲线程对
for (j = ; j < THREAD_MAX; j++)
{
if ( == s_thread_para[j][]) break;
}
if (j >= THREAD_MAX)
{
fprintf(stderr, "线程池已满, 连接将被放弃\r\n");
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli);
continue;
}
//复制有关参数
s_thread_para[j][] = ;//设置活动标志为"活动"
s_thread_para[j][] = sock_cli;//客户端连接
s_thread_para[j][] = listen_index;//服务索引
//线程解锁
pthread_mutex_unlock(s_mutex + j);
}//end of for(i;;)
}//end of for(;;) exit();
} static int init_thread_pool(void)
{
int i, rc; //初始化线程池参数
for (i = ; i < THREAD_MAX; i++)
{
s_thread_para[i][] = ;//设置线程占用标志为"空闲"
s_thread_para[i][] = i;//线程池索引
pthread_mutex_lock(s_mutex + i);//线程锁
} //创建线程池
for (i = ; i < THREAD_MAX; i++)
{
rc = pthread_create(s_tid + i, , (void *)test_server4, (void *)(s_thread_para[i]));
if ( != rc)
{
fprintf(stderr, "线程创建失败\n");
return(-);
}
} //成功返回
return();
} static int init_listen4(char *ip4, int port, int max_link)
{
//临时变量
int sock_listen4;
struct sockaddr_in addr4;
unsigned int optval;
struct linger optval1; //初始化数据结构
bzero(&addr4, sizeof(addr4));
inet_pton(AF_INET, ip4, &(addr4.sin_addr));
addr4.sin_family = AF_INET;
addr4.sin_port = htons(port); //创建SOCKET
sock_listen4 = socket(AF_INET, SOCK_STREAM, );
if ( > sock_listen4) return(-); //设置SO_REUSEADDR选项(服务器快速重起)
optval = 0x1;
setsockopt(sock_listen4, SOL_SOCKET, SO_REUSEADDR, &optval, ); //设置SO_LINGER选项(防范CLOSE_WAIT挂住所有套接字)
optval1.l_onoff = ;
optval1.l_linger = ;
setsockopt(sock_listen4, SOL_SOCKET, SO_LINGER, &optval1, sizeof(struct linger)); if ( > bind(sock_listen4, (struct sockaddr *)&addr4, sizeof(addr4)))
{
close(sock_listen4);
return(-);
} if ( > listen(sock_listen4, max_link))
{
close(sock_listen4);
return(-);
} return(sock_listen4);
} void * test_server4(unsigned int thread_para[])
{
//临时变量
int pool_index; //线程池索引
int sock_cli; //客户端连接
int listen_index; //监听索引 char buff[]; //传输缓冲区
char *p;
int i, j, len; //线程脱离创建者
pthread_detach(pthread_self());
pool_index = thread_para[]; wait_unlock: pthread_mutex_lock(s_mutex + pool_index);//等待线程解锁 //线程变量内容复制
sock_cli = thread_para[];//客户端连接
listen_index = thread_para[];//监听索引 //接收请求
len = recv(sock_cli, buff, , MSG_NOSIGNAL); //构造响应
p = buff;
//HTTP头
p += sprintf(p, "HTTP/1.1 200 OK\r\n");
p += sprintf(p, "Content-Type: text/html\r\n");
p += sprintf(p, "Connection: closed\r\n\r\n");
//页面
p += sprintf(p, "<html>\r\n<head>\r\n");
p += sprintf(p, "<meta content=\"text/html; charset=GBK\" http-equiv=\"Content-Type\">\r\n");
p += sprintf(p, "</head>\r\n");
p += sprintf(p, "<body style=\"background-color: rgb(229, 229, 229);\">\r\n"); p += sprintf(p, "<center>\r\n");
p += sprintf(p, "<H3>连接状态</H3>\r\n");
p += sprintf(p, "<p>服务器地址 %s:%d</p>\r\n", s_listens[listen_index].ip4, s_listens[listen_index].port);
j = ;
for (i = ; i < THREAD_MAX; i++)
{
if ( != s_thread_para[i][]) j++;
}
p += sprintf(p, "<H3>线程池状态</H3>\r\n");
p += sprintf(p, "<p>线程池总数 %d 活动线程总数 %d</p>\r\n", THREAD_MAX, j);
p += sprintf(p, "</center></body></html>\r\n");
len = p – buff; //发送响应
send(sock_cli, buff, len, MSG_NOSIGNAL); //释放连接
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli); //线程任务结束
thread_para[] = ;//设置线程占用标志为"空闲"
goto wait_unlock; pthread_exit(NULL);
}
[/cpp]

【Networking】(转)一个非常好的epoll+线程池服务器Demo的更多相关文章

  1. 使用C++11实现一个半同步半异步线程池

    前言 C++11之前我们使用线程需要系统提供API.posix线程库或者使用boost提供的线程库,C++11后就加入了跨平台的线程类std::thread,线程同步相关类std::mutex.std ...

  2. Linux中epoll+线程池实现高并发

    服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下,每个线程 ...

  3. 高并发的epoll+线程池,线程池专注实现业务

    我们知道,服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下 ...

  4. 使用C++11 开发一个半同步半异步线程池

    摘自:<深入应用C++11>第九章 实际中,主要有两种方法处理大量的并发任务,一种是一个请求由系统产生一个相应的处理请求的线程(一对一) 另外一种是系统预先生成一些用于处理请求的进程,当请 ...

  5. 【网络编程】之十二、wsaeventselect+线程池 服务器实现

    #include<WinSock2.h> #include<iostream> using namespace std; #pragma comment(lib, " ...

  6. 分享一个自制的 .net线程池

    扯淡 由于项目需求,需要开发一些程序去爬取一些网站的信息,算是小爬虫程序吧.爬网页这东西是要经过网络传输,如果程序运行起来串行执行请求爬取,会很慢,我想没人会这样做.为了提高爬取效率,必须使用多线程并 ...

  7. 二 Java利用等待/通知机制实现一个线程池

    接着上一篇博客的 一Java线程的等待/通知模型 ,没有看过的建议先看一下.下面我们用等待通知机制来实现一个线程池 线程的任务就以打印一行文本来模拟耗时的任务.主要代码如下: 1  定义一个任务的接口 ...

  8. [转]使用VC/MFC创建一个线程池

    许多应用程序创建的线程花费了大量时间在睡眠状态来等待事件的发生.还有一些线程进入睡眠状态后定期被唤醒以轮询工作方式来改变或者更新状态信息.线程池可以让你更有效地使用线程,它为你的应用程序提供一个由系统 ...

  9. 一个boost底下的线程池

    Boost的thread库中目前并没有提供线程池,我在sorceforge上找了一个用boost编写的线程池.该线程池和boost结合的比较好,并且提供了多种任务执行策略,使用也非常简单. 下载地址: ...

随机推荐

  1. checkbox 更改样式

    html: <div class="wrap"> <p>1. 勾选</p> <input type="checkbox" ...

  2. 【JavaWeb开发】初步实现网站应用钉钉扫码登录

    http://blog.csdn.net/baofeidyz/article/details/59059379 版权声明:转载请注明我的个人微信平台 暴沸 目录(?)[+] 写在前面:如果你还不知道钉 ...

  3. 长沙理工大学第十二届ACM大赛-重现赛 L - 选择困难症

    题目描述 小L有严重的选择困难症. 早上起床后,需要花很长时间决定今天穿什么出门. 假设一共有k类物品需要搭配选择,每类物品的个数为Ai,每个物品有一个喜欢值Vj,代表小L对这件物品的喜欢程度. 小L ...

  4. 洛谷P3052 [USACO12MAR]摩天大楼里的奶牛 [迭代加深搜索]

    题目传送门 摩天大楼里的奶牛 题目描述 A little known fact about Bessie and friends is that they love stair climbing ra ...

  5. Shiro切入Spring的方式

    在springMVC中要使用shiro,一般都遵循下面的配置: applicationContext-shiro.xml <bean id="shiroFilter" cla ...

  6. luogu P2107 小Z的AK计划

    最近复习了一下堆,于是去luogu上找一些简单题写一写 贪心的想,小z不会到一半以后回头去Ak,因为这样从时间上想肯定是不优的,他可以早在之间经过时就AK所以我们可以将所有机房按照横坐标排序可以想到的 ...

  7. Tornado(一)

    Tornado 特点 Tornado是一个用Python写的相对简单的.不设障碍的Web服务器架构,用以处理上万的同时的连接口,让实时的Web服务通畅起来.虽然跟现在的一些用Python写的Web架构 ...

  8. Codeforces Round #303 (Div. 2) C. Woodcutters 贪心

    C. Woodcutters Time Limit: 20 Sec  Memory Limit: 256 MB 题目连接 http://codeforces.com/contest/545/probl ...

  9. IOS http 请求

    asihttprequest 为第三方数据请求,一下为get  和post 两种请求. Get: NSString *loginName=@"Tony"; NSString *pw ...

  10. 使用STL中的list容器实现单链表的操作

    #include<iostream> #include<list> #include<algorithm> using namespace std; void Pr ...