一只简单的网络爬虫(基于linux C/C++)————主事件流程
该爬虫的主事件流程大致如下:
1.获取命令行参数,执行相应操作
2.读取配置文件,解析得到各种设置
3.载入各种模块
4.种子入队,开启DNS解析线程(原始队列不为空时解析)
5.创建epoll,开启任务,发起请求等等,关注事件
6.while大循环中使用epoll_wait返回活跃的事件,每个事件开启一个线程处理(线程中主要是解析页面,保存页面,url处理等),在线程结束的时候可能会开启新的任务。
创建epoll
//创建epoll,参数为监听的数目(自从linux2.6.8之后,size参数是被忽略的)
g_epfd = epoll_create(g_conf->max_job_num);
开始若干个任务,关注事件
while(ourl_num++ < g_conf->max_job_num)
{
if (attach_epoll_task() < 0)//执行epoll任务,如果中途遇到队列为空的情况就退出循环
break;
}
attach_epoll_task函数如下:
//开始一个epoll任务,建立连接还有就是关注事件
int attach_epoll_task()
{
struct epoll_event ev;
int sock_rv;
int sockfd;
Url * ourl = pop_ourlqueue();//从url队列取出一个url
if (ourl == NULL)
{
SPIDER_LOG(SPIDER_LEVEL_WARN, "Pop ourlqueue fail!");
return -1;
}
// connect socket and get sockfd
//连接
if ((sock_rv = build_connect(&sockfd, ourl->ip, ourl->port)) < 0)
{
SPIDER_LOG(SPIDER_LEVEL_WARN, "Build socket connect fail: %s", ourl->ip);
return -1;
}
set_nonblocking(sockfd);//设定socket模式,非阻塞
//发送请求
if ((sock_rv = send_request(sockfd, ourl)) < 0)
{
SPIDER_LOG(SPIDER_LEVEL_WARN, "Send socket request fail: %s", ourl->ip);
return -1;
}
////保存触发事件的某个文件描述符相关的数据(与具体使用方式有关)
// typedef union epoll_data {
// void *ptr;
// int fd;
// __uint32_t u32;
// __uint64_t u64;
// } epoll_data_t;
// //感兴趣的事件和被触发的事件
// struct epoll_event {
// __uint32_t events; /* Epoll events */
// epoll_data_t data; /* User data variable */
// };
evso_arg * arg = (evso_arg *)calloc(1, sizeof(evso_arg));
arg->fd = sockfd;
arg->url = ourl;
ev.data.ptr = arg;
ev.events = EPOLLIN | EPOLLET;//边沿触发
if (epoll_ctl(g_epfd, EPOLL_CTL_ADD, sockfd, &ev) == 0)//EPOLL_CTL_ADD注册事件
{// add event
SPIDER_LOG(SPIDER_LEVEL_DEBUG, "Attach an epoll event success!");
}
else
{
SPIDER_LOG(SPIDER_LEVEL_WARN, "Attach an epoll event fail!");
return -1;
}
g_cur_thread_num++; //当前正在执行抓取的任务数(关注的事件数)
return 0;
}
while大循环
……
……
……
while(1)
{
n = epoll_wait(g_epfd, events, 10, 2000);//epoll将会把发生的事件赋值到events数组中,超时时间单位毫秒
printf("epoll:%d\n",n);//打印活跃事件数
if (n == -1)
printf("epoll errno:%s\n",strerror(errno));
fflush(stdout);
if (n <= 0) //退出是在这里
{//判断事件数,队列是否为空,为空退出
if (g_cur_thread_num <= 0 && is_ourlqueue_empty() && is_surlqueue_empty())
{
sleep(1);
if (g_cur_thread_num <= 0 && is_ourlqueue_empty() && is_surlqueue_empty())
break;
}
}
for (i = 0; i < n; i++) //n为活跃的事件数
{
evso_arg * arg = (evso_arg *)(events[i].data.ptr);
//发生错误,挂起,不是epollin事件
if ((events[i].events & EPOLLERR) ||(events[i].events & EPOLLHUP) ||(!(events[i].events & EPOLLIN)))
{
SPIDER_LOG(SPIDER_LEVEL_WARN, "epoll fail, close socket %d",arg->fd);
close(arg->fd);//关闭文件描述符
continue;
}
//注销事件
epoll_ctl(g_epfd, EPOLL_CTL_DEL, arg->fd, &events[i]); // del event
printf("hello epoll:event=%d\n",events[i].events);
fflush(stdout);//清除读写缓冲区,需要立即把输出缓冲区的数据进行物理写入时
//create_thread是自己封装的,在线程的头文件中
//recv_response为回调函数
//产生epollin事件就调用接收函数接收,产生一个线程处理任务
create_thread(recv_response, arg, NULL, NULL);//创建线程处理
}
}
……
……
……
create_thread(recv_response, arg, NULL, NULL);该函数创建线程,在线程结束的时候会开启新的任务,将事件添加进epoll关注,epoll_wait返回后就注销事件,并创建新的线程去处理这个事件
注意下面的代码
if (n <= 0) //退出是在这里
{//判断事件数,队列是否为空,为空退出
if (g_cur_thread_num <= 0 && is_ourlqueue_empty() && is_surlqueue_empty())
{
sleep(1);
if (g_cur_thread_num <= 0 && is_ourlqueue_empty() && is_surlqueue_empty())
break;
}
}
满足处理的线程数小于等于0,或者两个队列都为空则会退出循环,程序也就此结束。
一只简单的网络爬虫(基于linux C/C++)————主事件流程的更多相关文章
- 一只简单的网络爬虫(基于linux C/C++)————开篇
最近学习开发linux下的爬虫,主要是参考了该博客及其他一些网上的资料.网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息 ...
- 一只简单的网络爬虫(基于linux C/C++)————浅谈并发(IO复用)模型
Linux常用的并发模型 Linux 下设计并发网络程序,有典型的 Apache 模型( Process Per Connection ,简称 PPC ), TPC ( Thread Per Conn ...
- 一只简单的网络爬虫(基于linux C/C++)————支持动态模块加载
插件在软件设计中有很大的好处,可以方便地扩展各种功能,使用插件技术能够在分析.设计.开发.项目计划.协作生产和产品扩展等很多方面带来好处: (1)结构清晰.易于理解.由于借鉴了硬件总线的结构,而且各个 ...
- 一只简单的网络爬虫(基于linux C/C++)————socket相关及HTTP
socket相关 建立连接 网络通信中少不了socket,该爬虫没有使用现成的一些库,而是自己封装了socket的相关操作,因为爬虫属于客户端,建立套接字和发起连接都封装在build_connect中 ...
- 一只简单的网络爬虫(基于linux C/C++)————守护进程
守护进程,也就是通常说的Daemon进程,是Linux中的后台服务进程.它是一个生存期较长的进程,通常独立于控制终端并且周期性地执行某种任务或等待处理某些发生的事件.守护进程常常在系统引导装入时启动, ...
- 一只简单的网络爬虫(基于linux C/C++)————读取命令行参数及日志宏设计
linux上面的程序刚开始启动的时候一般会从命令行获取某些参数,比如以守护进程运行啊什么的,典型的例子就是linux下的man,如下图所示 实现该功能可以使用getopt函数实现,该函数在头文件uni ...
- 一只简单的网络爬虫(基于linux C/C++)————利用正则表达式解析页面
我们向一个HTTP的服务器发送HTTP的请求后,服务器会返回可能一个HTML页面(当然也可以是其他的资源),我们可以利用返回的HTML页面,在其中寻找其他的Url,例如我们可以这样在浏览器上查看一下H ...
- 一只简单的网络爬虫(基于linux C/C++)————线程相关
爬虫里面采用了多线程的方式处理多个任务,以便支持并发的处理,把主函数那边算一个线程的话,加上一个DNS解析的线程,以及我们可以设置的max_job_num值,最多使用了1+1+max_job_num个 ...
- 一只简单的网络爬虫(基于linux C/C++)————Url处理以及使用libevent进行DNS解析
Url处理 爬虫里使用了两个数据结构来管理Url 下面的这个数据结构用来维护原始的Url,同时有一个原始Url的队列 //维护url原始字符串 typedef struct Surl { char * ...
随机推荐
- easy-mock 本地部署(挤需体验三番钟,里造会干我一样,爱象节款mock)
前言 很多小伙伴问我怎么在自己公司的项目里面添加配置mock,在vue项目里面都知道怎么配置mock,在大型前端项目里面就一脸疑惑了. 我就回答他,你今天会在vue项目里面用,那天换公司是用angul ...
- JS 浏览器BOM-->简介和属性
1.简介: BOM:浏览器对象模型(Browser Object Model),是一个用于访问浏览器和计算机屏幕的对象集合.我们可以通过全局对象window来访问这些对象. 2.属性 window. ...
- Array(数组)对象-->slice() 方法
1.定义和用法 slice()方法可提取字符串的某个部分,并以新的字符串返回被提取的部分. 语法: array.slice(start, end) 参数:start 开始元素的下标,截取内容包含该元素 ...
- list 的sublist 隐藏 bug
list A = new list(); list a = A.sublist(0,3); 假如对a进行增加或者删除 会 同样改变A里的值,即其实a仅仅是A的一个试图,而不是一个新的list 对象,所 ...
- python初学(三)
1.以软科中国最好大学排名为分析对象,基于requests库和bs4库编写爬虫程序,对2015年至2019年间的中国大学排名数据进行爬取,并按照排名先后顺序输出不同年份的前10位大学信息,要求对输出结 ...
- three.js中让模型自动居中的代码如下:
//load_Model为需要居中的3D模型 //原理是通过boundingBoxHelper 来计算模型的大小范围 var hex = 0xff0000; var MD_Length,MD_Widt ...
- stand up meeting 12/24/2015 && end sprint1
part 组员 工作 工作耗时/h 明日计划 工作耗时/h UI 冯晓云 解决单词本显示页面的问题 4 完善显示页面的功能 4 ...
- Berry Jam codeforces 1278C
题目大意: 有两种类型的果酱,一个梯子,从中间开始吃,可以吃左边的,也可以吃右边的,最终要使两种类型的果酱的数量想等 题解: 思路对了,但是没考虑完. 对梯子的左侧的果酱I我们用两个数组记录其从1到i ...
- 使用GML的八方向自动寻路
使用GML的八方向自动寻路 本教程适合无基础人员使用. 提示 本教程中仅使用了最简单的方法,并且有一些错误和不规范之处.请谅解一下,在评论区提出,我会修改.古人曰"教学相长",希望 ...
- 12. 前后端联调 + ( proxy代理 ) + ( axios拦截器 ) + ( css Modules模块化方案 ) + ( css-loader ) + ( 非路由组件如何使用history ) + ( bodyParser,cookieParser中间件 ) + ( utility MD5加密库 ) + ( nodemon自动重启node ) + +
(1) proxy 前端的端口在:localhost:3000后端的端口在:localhost:1234所以要在webpack中配置proxy选项 (proxy是代理的意思) 在package.jso ...