爬取Discuz!社区的教程标题-史上最详细解析(实现分页)

摘要:本文记录了爬取Discuz!社区的教程标题的详细过程,过程清晰

  • 这是O的第一篇博客,如有排版问题请大佬见谅,O非常希望大佬能在评论区给出宝贵的意见共同进步
  • 经过千辛万苦终于实现了自己的第一个爬虫,以此纪念一下

总代码

import requests
from lxml import etree
class Disspider:
#获取头部及开始url
def __init__(self):
self.start_url = "https://www.discuz.net/portal.php?mod=list&catid=8&page={}"
self.headers = {"user-agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Mobile Safari/537.36"}
#构建url列表
def get_url_list(self):
url_list=[]
for i in range(19):
url_list.append(self.start_url.format(i+1))
return url_list
#获取所需要的信息
def spider_information(self,url):
resp = requests.get(url,headers=self.headers).content
html=etree.HTML(resp)
result=html.xpath('//p[@class="wz_tits"]/text()')
return result
#保存数据
def save(self,result):
#'a'表示循环写入不覆盖之前写的内容
with open('text.txt','a',encoding='utf-8') as f:
#此时result为列表,write函数只能接收字符串类型的数据
for i in result:
f.write("\n"+i)
#主逻辑函数
def run(self):
url_list=self.get_url_list()
for url in url_list:
result=self.spider_information(url)
self.save(result)
if __name__ == '__main__':
disspider=Disspider()
disspider.run()

分函数解析

从上至下数的第一个函数:

#self作用类似于指针
def __init__(self):
#self.start_url表示起始url地址(即第一页地址),因为要实现分页所以page后是大括号不写死,留给构建url_list列表函数来填充page
self.start_url = "https://www.discuz.net/portal.php?mod=list&catid=8&page={}"
#写self.headers主要是为了模拟浏览器欺骗服务器,获取和浏览器一致的内容
#如果需要也可以加cookie来帮忙反反爬,不过此处不需要,当然因为cookie往往和一个用户对应,请求太快,容易被服务器识别为爬虫,故不需要cookie时
#尽量不要用cookie
self.headers = {"user-agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Mobile Safari/537.36"}

第二个函数:

 #构建url列表
def get_url_list(self):
url_list=[]
#Discuz!社区的教程我写这个爬虫时是一个19页,故直接用for循环来构建url_list列表
for i in range(19):
#字符串的format方法,实现格式化,基本语法是通过 {} 和 : 来代替以前的 %,
url_list.append(self.start_url.format(i+1))
#这时在第一个函数写的start_url中的{}以被填充完毕,形成了19页对应的19个url写入url_list列表中,再return
return url_list

第三个函数:

 #获取所需要的信息
def spider_information(self,url):
#获取响应内容,resp.content返回的字节流数据
resp = requests.get(url,headers=self.headers).content
#此为lxml的etree用法,能更好的发挥xpath的作用
html=etree.HTML(resp)
#这个xpath路径为标题路径,如果需要爬取其他东西例如发布时间等直接替换xpath路径就好
result=html.xpath('//p[@class="wz_tits"]/text()')
return result

第四个函数:

#保存数据
def save(self,result):
#'a'表示循环写入不覆盖之前写的内容
with open('text.txt','a',encoding='utf-8') as f:
#此时result为列表,write函数只能接收字符串类型的数据
for i in result:
#为了输出在不同的行上在前面加上换行符,方便阅读
f.write("\n"+i)

第五个函数:

#主逻辑函数,实现之前的函数调用,类似于c语言的main函数
def run(self):
#构建url_list列表
url_list=self.get_url_list()
#取出url_list列表里的每一个url进行下一步操作
for url in url_list:
#获取想要的数据
result=self.spider_information(url)
#保存
self.save(result)

第六个函数:

#主要功能是让你写的脚本模块既可以导入到别的模块中用,另外该模块自己也可执行
if __name__ == '__main__':
#该语句O理解为
disspider=Disspider()
disspider.run()

fighting!,一起成长(^^)

爬取Discuz!社区的教程标题的更多相关文章

  1. 利用Python网络爬虫爬取学校官网十条标题

    利用Python网络爬虫爬取学校官网十条标题 案例代码: # __author : "J" # date : 2018-03-06 # 导入需要用到的库文件 import urll ...

  2. 学以致用:Python爬取廖大Python教程制作pdf

    当我学了廖大的Python教程后,感觉总得做点什么,正好自己想随时查阅,于是就开始有了制作PDF这个想法. 想要把教程变成PDF有三步: 先生成空html,爬取每一篇教程放进一个新生成的div,这样就 ...

  3. python制作爬虫爬取京东商品评论教程

    作者:蓝鲸 类型:转载 本文是继前2篇Python爬虫系列文章的后续篇,给大家介绍的是如何使用Python爬取京东商品评论信息的方法,并根据数据绘制成各种统计图表,非常的细致,有需要的小伙伴可以参考下 ...

  4. 爬取知乎热榜标题和连接 (python,requests,xpath)

    用python爬取知乎的热榜,获取标题和链接. 环境和方法:ubantu16.04.python3.requests.xpath 1.用浏览器打开知乎,并登录 2.获取cookie和User—Agen ...

  5. 适合初学者的Python爬取链家网教程

    前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: TinaLY PS:如有需要Python学习资料的小伙伴可以加点击下 ...

  6. CVPR顶会论文爬取存入MySQL数据库(标题、摘要、作者、PDF链接和原地址)

    main.py import pymysql import re import requests # 连接数据库函数 from bs4 import BeautifulSoup def insertC ...

  7. 爬取知名社区技术文章_items_2

    item中定义获取的字段和原始数据进行处理并合法化数据 #!/usr/bin/python3 # -*- coding: utf-8 -*- import scrapy import hashlib ...

  8. webmagic 爬取网页所有文章的标题时间作者和内容

    package com.ij34; import us.codecraft.webmagic.Site; import us.codecraft.webmagic.Page; import us.co ...

  9. 爬取知名社区技术文章_setting_5

    # -*- coding: utf-8 -*- # Scrapy settings for JobBole project # # For simplicity, this file contains ...

  10. 爬取知名社区技术文章_pipelines_4

    获取字段的存储处理和获取普通的路径 #!/usr/bin/python3 # -*- coding: utf-8 -*- import pymysql import gevent import pym ...

随机推荐

  1. buffer busy waits等待事件案例-vage

    转自vage 讨厌香草冰激凌的汽车与Buffer busy wiats的故事        记得好几年前看到过一个故事,通用公司曾收到一客户的邮件,邮件中客户描述了一个非常奇怪的问题.他们家有晚饭后去 ...

  2. .netCore 图形验证码,非System.Drawing.Common

    netcore需要跨平台,说白点就是放在windows服务器要能用,放在linux服务器上也能用,甚至macos上. 很多时候需要使用到图形验证码,这就有问题了. 旧方案1.引入包 <Packa ...

  3. oracle命令2 和一致性关闭、非一致性关闭

    启动SQL*Plus语法sqlplus [username/password][@server] [as sysdba|sysoper] ,其中username/password如果不输人,SQL*P ...

  4. 动态规划 DP 的一些笔记以及解题思路

    万物的开始,首先介绍一下动态规划(dynamic programming,DP)的基本概念:动态规划适用于有重叠子问题和最优子结构性质的问题,并且记录所有子问题的结果,因此动态规划方法耗费时间远远少于 ...

  5. CC BY-SA 4.0原文及翻译

    CC BY-SA 4.0原文及翻译 英文参考链接 中文参考链接 原文: Attribution 4.0 International (CC BY 4.0) This is a human-readab ...

  6. RLChina理论三:强化学习基础

    强化学习基础 马尔可夫决策过程就是在,环境自发做出转变,是个随波逐流的过程,At是智能体的行动,在St环境状态下加入At动作,c才进入下个状态S(t+1),即环境有自己的变化,也加入了智能体的决策. ...

  7. MySQL索引、事务与存储引擎

    MySQL索引.事务与存储引擎 索引介绍 1.索引的概念 索引是一个排序的列表,在这个列表中存储着索引的值和包含这个值的数据所在行的物理地址(类似于C语言的链表通过指针指向数据记录的内存地址). 使用 ...

  8. 使用MVVM Toolkit简化WPF开发

    最近. NET 8 的 WPF 推出了 WPF File Dialog改进,这样无需再引用 Win32 命名空间就可以实现文件夹的选择与存储了,算是一个很方便的改进了.顺手写了一个小的 WPF 程序, ...

  9. PVE 下虚拟机 Ubuntu 无法进入恢复模式的解决方案——提取原有系统文件

    问题说明 某天重启虚拟机 Ubuntu,发现虚拟机只有容器IP,桥接的接口在虚拟机显示状态为 DOWN: 想重启进入恢复模式,却发现恢复模式一直花屏,无法使用: 没有办法了,只能想办法提取原有系统内原 ...

  10. 为什么MySQL不建议使用delete删除数据?

    MySQL并不直接建议禁止使用DELETE语句删除数据,但是在某些情况下,使用DELETE可能会带来一些潜在的问题,特别是在大型数据库中. 下面我将详细介绍为什么在某些情况下MySQL不建议过度使用D ...