(转)一个非常好的epoll+线程池服务器Demo
Reply
转载自:http://zhangyafeikimi.javaeye.com/blog/285193 [cpp]
/**
张亚霏修改 文件名:epoll_demo.c
编译: gcc epoll_demo.c -pthread 程序源码如下(请自行编辑宏定义SERVER_IP为自己的IP):
*/ /*Linux 2.6 x86_64 only*/ #include <stdio.h>
#include <stdlib.h>
#include <string.h> #include <time.h>
#include <sys/epoll.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <netdb.h>
#include <pthread.h>
#include <errno.h> /*线程池的线程数量*/
#define THREAD_MAX 1 /*监听端口*/
#define LISTEN_PORT 8000 /*
监听端口的数量,从LISTEN_PORT到LISTEN_PORT+LISTEN_MAX-1
*/
#define LISTEN_MAX 1 #define SERVER_IP "127.0.0.1" typedef struct
{
char ip4[];
int port;
int fd;
} listen_info; //服务器参数
static listen_info s_listens[LISTEN_MAX]; //线程池参数
static unsigned int s_thread_para[THREAD_MAX][];//线程参数
static pthread_t s_tid[THREAD_MAX];//线程ID
pthread_mutex_t s_mutex[THREAD_MAX];//线程锁 //私有函数
static int init_thread_pool(void);
static int init_listen4(char *ip4, int port, int max_link); //线程函数
void* test_server4(unsigned int thread_para[]); int main(int argc, char *argv[])//客户端驱动
{
//临时变量
int i, j, rc; int sock_listen; //监听套接字
int sock_cli; //客户端连接
int listen_index; int epfd;
int nfds;
struct epoll_event ev;
struct epoll_event events[LISTEN_MAX]; socklen_t addrlen; //地址信息长度
struct sockaddr_in addr4; //IPv4地址结构 //线程池初始化
rc = init_thread_pool();
if ( != rc)
exit(-); //初始化服务监听
for (i = ; i < LISTEN_MAX; i++)
{
sprintf(s_listens[i].ip4, "%s", SERVER_IP);
s_listens[i].port = LISTEN_PORT + i;
//创建监听
rc = init_listen4(s_listens[i].ip4, s_listens[i].port, );
if ( > rc)
{
fprintf(stderr, "无法创建服务器监听于%s:%d\n", s_listens[i].ip4, s_listens[i].port);
perror(NULL);
exit(-);
}
s_listens[i].fd = rc;
} //设置集合
epfd = epoll_create();
for (i = ; i < LISTEN_MAX; i++)
{
//加入epoll事件集合
ev.events = EPOLLIN;
ev.data.u32 = i;//记录listen数组下标
if (epoll_ctl(epfd, EPOLL_CTL_ADD, s_listens[i].fd, &ev) < )
{
fprintf(stderr, "向epoll集合添加套接字失败(fd =%d)\r\n", rc);
exit(-);
}
} //服务循环
for ( ; ; )
{
//等待epoll事件
nfds = epoll_wait(epfd, events, LISTEN_MAX, -);
//处理epoll事件
for (i = ; i < nfds; i++)
{
//接收客户端连接
listen_index = events[i].data.u32;
sock_listen = s_listens[listen_index].fd;
addrlen = sizeof(struct sockaddr_in);
bzero(&addr4, addrlen);
sock_cli = accept(sock_listen, (struct sockaddr *)&addr4, &addrlen);
if ( > sock_cli)
{
fprintf(stderr, "接收客户端连接失败\n");
continue;
}
//查询空闲线程对
for (j = ; j < THREAD_MAX; j++)
{
if ( == s_thread_para[j][]) break;
}
if (j >= THREAD_MAX)
{
fprintf(stderr, "线程池已满, 连接将被放弃\r\n");
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli);
continue;
}
//复制有关参数
s_thread_para[j][] = ;//设置活动标志为"活动"
s_thread_para[j][] = sock_cli;//客户端连接
s_thread_para[j][] = listen_index;//服务索引
//线程解锁
pthread_mutex_unlock(s_mutex + j);
}//end of for(i;;)
}//end of for(;;) exit();
} static int init_thread_pool(void)
{
int i, rc; //初始化线程池参数
for (i = ; i < THREAD_MAX; i++)
{
s_thread_para[i][] = ;//设置线程占用标志为"空闲"
s_thread_para[i][] = i;//线程池索引
pthread_mutex_lock(s_mutex + i);//线程锁
} //创建线程池
for (i = ; i < THREAD_MAX; i++)
{
rc = pthread_create(s_tid + i, , (void *)test_server4, (void *)(s_thread_para[i]));
if ( != rc)
{
fprintf(stderr, "线程创建失败\n");
return(-);
}
} //成功返回
return();
} static int init_listen4(char *ip4, int port, int max_link)
{
//临时变量
int sock_listen4;
struct sockaddr_in addr4;
unsigned int optval;
struct linger optval1; //初始化数据结构
bzero(&addr4, sizeof(addr4));
inet_pton(AF_INET, ip4, &(addr4.sin_addr));
addr4.sin_family = AF_INET;
addr4.sin_port = htons(port); //创建SOCKET
sock_listen4 = socket(AF_INET, SOCK_STREAM, );
if ( > sock_listen4) return(-); //设置SO_REUSEADDR选项(服务器快速重起)
optval = 0x1;
setsockopt(sock_listen4, SOL_SOCKET, SO_REUSEADDR, &optval, ); //设置SO_LINGER选项(防范CLOSE_WAIT挂住所有套接字)
optval1.l_onoff = ;
optval1.l_linger = ;
setsockopt(sock_listen4, SOL_SOCKET, SO_LINGER, &optval1, sizeof(struct linger)); if ( > bind(sock_listen4, (struct sockaddr *)&addr4, sizeof(addr4)))
{
close(sock_listen4);
return(-);
} if ( > listen(sock_listen4, max_link))
{
close(sock_listen4);
return(-);
} return(sock_listen4);
} void * test_server4(unsigned int thread_para[])
{
//临时变量
int pool_index; //线程池索引
int sock_cli; //客户端连接
int listen_index; //监听索引 char buff[]; //传输缓冲区
char *p;
int i, j, len; //线程脱离创建者
pthread_detach(pthread_self());
pool_index = thread_para[]; wait_unlock: pthread_mutex_lock(s_mutex + pool_index);//等待线程解锁 //线程变量内容复制
sock_cli = thread_para[];//客户端连接
listen_index = thread_para[];//监听索引 //接收请求
len = recv(sock_cli, buff, , MSG_NOSIGNAL); //构造响应
p = buff;
//HTTP头
p += sprintf(p, "HTTP/1.1 200 OK\r\n");
p += sprintf(p, "Content-Type: text/html\r\n");
p += sprintf(p, "Connection: closed\r\n\r\n");
//页面
p += sprintf(p, "<html>\r\n<head>\r\n");
p += sprintf(p, "<meta content=\"text/html; charset=GBK\" http-equiv=\"Content-Type\">\r\n");
p += sprintf(p, "</head>\r\n");
p += sprintf(p, "<body style=\"background-color: rgb(229, 229, 229);\">\r\n"); p += sprintf(p, "<center>\r\n");
p += sprintf(p, "<H3>连接状态</H3>\r\n");
p += sprintf(p, "<p>服务器地址 %s:%d</p>\r\n", s_listens[listen_index].ip4, s_listens[listen_index].port);
j = ;
for (i = ; i < THREAD_MAX; i++)
{
if ( != s_thread_para[i][]) j++;
}
p += sprintf(p, "<H3>线程池状态</H3>\r\n");
p += sprintf(p, "<p>线程池总数 %d 活动线程总数 %d</p>\r\n", THREAD_MAX, j);
p += sprintf(p, "</center></body></html>\r\n");
len = p – buff; //发送响应
send(sock_cli, buff, len, MSG_NOSIGNAL); //释放连接
shutdown(sock_cli, SHUT_RDWR);
close(sock_cli); //线程任务结束
thread_para[] = ;//设置线程占用标志为"空闲"
goto wait_unlock; pthread_exit(NULL);
}
[/cpp]

【Networking】(转)一个非常好的epoll+线程池服务器Demo的更多相关文章

  1. 使用C++11实现一个半同步半异步线程池

    前言 C++11之前我们使用线程需要系统提供API.posix线程库或者使用boost提供的线程库,C++11后就加入了跨平台的线程类std::thread,线程同步相关类std::mutex.std ...

  2. Linux中epoll+线程池实现高并发

    服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下,每个线程 ...

  3. 高并发的epoll+线程池,线程池专注实现业务

    我们知道,服务器并发模型通常可分为单线程和多线程模型,这里的线程通常是指“I/O线程”,即负责I/O操作,协调分配任务的“管理线程”,而实际的请求和任务通常交由所谓“工作者线程”处理.通常多线程模型下 ...

  4. 使用C++11 开发一个半同步半异步线程池

    摘自:<深入应用C++11>第九章 实际中,主要有两种方法处理大量的并发任务,一种是一个请求由系统产生一个相应的处理请求的线程(一对一) 另外一种是系统预先生成一些用于处理请求的进程,当请 ...

  5. 【网络编程】之十二、wsaeventselect+线程池 服务器实现

    #include<WinSock2.h> #include<iostream> using namespace std; #pragma comment(lib, " ...

  6. 分享一个自制的 .net线程池

    扯淡 由于项目需求,需要开发一些程序去爬取一些网站的信息,算是小爬虫程序吧.爬网页这东西是要经过网络传输,如果程序运行起来串行执行请求爬取,会很慢,我想没人会这样做.为了提高爬取效率,必须使用多线程并 ...

  7. 二 Java利用等待/通知机制实现一个线程池

    接着上一篇博客的 一Java线程的等待/通知模型 ,没有看过的建议先看一下.下面我们用等待通知机制来实现一个线程池 线程的任务就以打印一行文本来模拟耗时的任务.主要代码如下: 1  定义一个任务的接口 ...

  8. [转]使用VC/MFC创建一个线程池

    许多应用程序创建的线程花费了大量时间在睡眠状态来等待事件的发生.还有一些线程进入睡眠状态后定期被唤醒以轮询工作方式来改变或者更新状态信息.线程池可以让你更有效地使用线程,它为你的应用程序提供一个由系统 ...

  9. 一个boost底下的线程池

    Boost的thread库中目前并没有提供线程池,我在sorceforge上找了一个用boost编写的线程池.该线程池和boost结合的比较好,并且提供了多种任务执行策略,使用也非常简单. 下载地址: ...

随机推荐

  1. thinkjs项目中使用mongoose需要注意的地方

    原文链接thinkjs项目中使用mongoose需要注意的地方 由于thinkjs不支持mongodb的关联模型查询,所以我不得不使用mongoose这个第三方odm. 我有两个选择,一是像我在exp ...

  2. 谨防“USB杀手”

    应对来历不明的U盘要小心,因为可能被植入恶意程序或木马,这点相信许多人都知道. 但近两年又出现了一种新的新威胁,下图是一款名为USB Killer的设备,可对电脑硬件造成物理破坏. 它的使用效果很简单 ...

  3. 洛谷P2704 [NOI2001]炮兵阵地 [状压DP]

    题目传送门 炮兵阵地 题目描述 司令部的将军们打算在N*M的网格地图上部署他们的炮兵部队.一个N*M的地图由N行M列组成,地图的每一格可能是山地(用“H” 表示),也可能是平原(用“P”表示),如下图 ...

  4. 简单模仿拉钩网上的“hot_info”

    目录 前言 技术 判断进入div的方向 动画 绑定事件 css html 还需改进的地方 前言 突然想起来之前看到拉钩网上的hot_info(不知道该叫什么,但是拉钩网上这个div的class是hot ...

  5. canconfig 移植记录

    can 在Linux 里面是作为一个网络设备存在的,记录一下 canconfig 移植过程. 一. 下载 canutils 和 libsocketcan libsocketcan 地址: http:/ ...

  6. 【BZOJ 4527】 4527: K-D-Sequence (线段树)

    4527: K-D-Sequence Time Limit: 20 Sec  Memory Limit: 256 MBSubmit: 145  Solved: 59 Description 我们称一个 ...

  7. 数组中找出最小的K个数

    题目 给出一个数组,找出K个最小的值 例如给出数组{5,2,4,3,1},给定K值3,则输出结果为{2,3,1} 程序 先给出第一个版本的程序 public static void printKNum ...

  8. 查看linux启动的线程信息

    1.某一进程所有的线程个数.启动时间 ps max -o lstart,lwp,pid,nlwp,cmd|more lstart:     STARTED time the command start ...

  9. PHP大转盘中奖概率算法实例

    本文实例讲述了PHP大转盘中奖概率算法的实现方法,分享给大家供大家参考.具体如下: 大转盘是最近很多线上网动中一个比较有意思的东西了,下面我们就来看看这个大转盘中奖概率算法与例子,希望对各位有所帮助. ...

  10. XuLA/XuLA2

    http://www.xess.com/prods/prod048.php XuLA http://www.xess.com/prods/prod055.php XuLA2 http://www.xe ...