一、链接分析:

以"Linux"为搜索的关键字为例:

首页的链接为:https://zhidao.baidu.com/search?lm=0&rn=10&pn=0&fr=search&ie=gbk&word=linux

第二页的链接为:https://zhidao.baidu.com/search?word=linux&ie=gbk&site=-1&sites=0&date=0&pn=10

第三页的链接为:https://zhidao.baidu.com/search?word=linux&ie=gbk&site=-1&sites=0&date=0&pn=20

链接可以统一为:https://zhidao.baidu.com/search?word= + 关键字 + &ie=gbk&site=-1&sites=0&date=0&pn= + (页面数-1)*10

即使首页也可以这样写,只需要将最后的pn的值定为0,。

这样,我们只需要获取页面的最大页面数,然后遍历处理就可以。

二、分析首页页面:

我们可以看到,在索引界面中有问题和问题的答案,此外还有提问时间和答案贡献者,但这些我在这里暂时不爬取,有兴趣的可以去试试。问题的描述一般是完整的但答案的描述就不一定了。

而在详情页两者的描述都很完整,因此为方便起见,我们统一在详情页获取问题和答案,这就需要在索引页获取详情页的URL。

通过分析很容易知道,详情页的URL在 <div class="list-inner"> 这个块中,并且在其中每个的 class="ti" 的a标签的href属性的值就是我们要的URL。

很容易获取,这里我们使用BeautifulSoup来提取。主要的代码如下:

def Get_URL(html):
#从html源码中解析出url并返回,传入参数为html源码,返回URL列表
Soup = BeautifulSoup(html,'lxml')
info = Soup.select('.list-inner')
info = info[0].select('.ti')
return [i['href'] for i in info]

三、从详情页获取问题和答案:

详情页的问题的描述一般有两种形式:一种是普通问题,放在 <span class="ask-title "> 这个块中,提取里面的文本就是问题的描述了;一种是作业帮的问题,放在 <span class="qb-content" data-gradeid="0" data-courseid="0">  这个块中,提取里面的文本就是问题的描述了。

问题的答案也分上述两种,放在 <pre id="best-content-2257025851" accuse="aContent" class="best-text mb-10" style="min-height: 55px;"> 块中的一般问题的答案和放在 <dt class="title"> 块中的作业帮的问题的答案。

当然,你也可以有不同的获取方式,只要最终能得到信息的存放的位置就可以。知道信息的位置,很容易写代码获取。

def Get_info(url):
#进入详情页获取问题和答案,传入URL,返回问题和答案
res = requests.get(url, headers = header)
res.encoding = 'gbk'
Soup = BeautifulSoup(res.text,'lxml') try:
info = Soup.select('pre[accuse="aContent"]')
if len(info) < 1:
#print(url)
info = Soup.select('div[accuse="aContent"]')
if len(info) < 1:
info = Soup.select('dt[class="title"]') info = info[0].text
except:
info = ''
print('获取回答失败,对应的URL为:',url)
try:
ask = Soup.select('.ask-title ')
if len(ask) < 1:
ask = Soup.select('.qb-content') ask = ask[0].text
except:
ask = ''
print('获取标题失败,对应的URL为:',url) return ask,info

四、存入数据库:

说实话,爬取数据我一个早上就写完了,但是存入数据库中花了三天时间。主要是数据库的知识忘得差不多了,毕竟自从学完后基本没什么机会用。

这里我们使用了Python操纵数据库的一个模块PyMySQL,不清楚的小伙伴可以参考这里:Python+MySQL数据库操作(PyMySQL)

当然前提是你懂得MySQL,如果这个你也不是很了解,可以先看看这个:MySQL教程

首先,我们创建一个数据库的表test.Data来存储数据,执行下面代码之前请确认:

  • 已经创建了一个数据库:test
  • MySQL用户"guest"和密码"12345"可以访问test数据库

具体代码如下:

def Create_table(name = 'Data'):
#传入数据库的名称,创建数据库,数据库一共有三列:问题id、问题和答案 db = pymysql.connect("localhost","guest","","test", use_unicode=True, charset="utf8")
#db.set_character_set('utf8')
cursor = db.cursor()
sql_1 = "drop table if exists " + name
sql_2 = """create table %s(
id int(100) not null auto_increment,
question text(10000) not null,
answer text(10000) default NULL,
PRIMARY KEY (`id`)
)engine=InnoDB default charset=utf8;""" %name
cursor.execute(sql_1)
#print(sql_2)
cursor.execute(sql_2) return db def Load_date(db,date):
#将date数据插入数据库 cursor = db.cursor() sql = """insert into Date(question,answer) values(%s,%s);""" %(date[0],date[1])
#print(sql)
cursor.execute(sql) db.commit()

完整的代码如下:

import requests
import re
from bs4 import BeautifulSoup
import time
import pymysql
import sys
url_1 = "https://zhidao.baidu.com/search?word="
url_2 = "&ie=gbk&site=-1&sites=0&date=0&pn="
header = {'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'} def Get_html(keyword, number = 0):
#输入关键字,获取得到结果的数量和源码
#如果是首页,返回首页的HTML源码和最大页数;如果不是,则只返回HTML源码 url = url_1 + keyword + url_2 + str(number)
#print(url)
res = requests.get(url = url, headers = header)
res.encoding = 'gbk'
html = res.text
if number == 0:
reg = r'<a class="pager-last".+?pn=(.+?)">尾页</a>'
reg = re.compile(reg)
number = re.findall(reg,html)[0]
return html,number
else:
return html def Get_URL(html):
#从html源码中解析出url并返回
Soup = BeautifulSoup(html,'lxml')
info = Soup.select('.list-inner')
info = info[0].select('.ti')
return [i['href'] for i in info] def Get_info(url):
#传入详情页的URL,进入详情页获取问题和答案并返回 res = requests.get(url, headers = header)
res.encoding = 'gbk'
Soup = BeautifulSoup(res.text,'lxml') #详情页的问题和答案一共有三种情况,一是普通问题,二是作业帮的问答问题,三是丢失的问答
try:
info = Soup.select('pre[accuse="aContent"]')
if len(info) < 1:
#print('不在pre[accuse="aContent"]')
info = Soup.select('div[accuse="aContent"]')
if len(info) < 1:
info = Soup.select('dt[class="title"]') info = info[0].text
except:
info = ''
print('获取回答失败,对应的URL为:',url)
try:
ask = Soup.select('.ask-title ')
if len(ask) < 1:
ask = Soup.select('.qb-content') ask = ask[0].text
except:
ask = ''
print('获取标题失败,对应的URL为:',url) return ask,info def Create_table(name = 'Data'):
#传入数据库的名称,创建数据库,数据库一共有三列:问题id、问题和答案 db = pymysql.connect("localhost","guest","","test", use_unicode=True, charset="utf8")
#db.set_character_set('utf8')
cursor = db.cursor()
sql_1 = "drop table if exists " + name
sql_2 = """create table %s(
id int(100) not null auto_increment,
question text(10000) not null,
answer text(10000) default NULL,
PRIMARY KEY (`id`)
)engine=InnoDB default charset=utf8;""" %name
cursor.execute(sql_1)
#print(sql_2)
cursor.execute(sql_2) return db def Load_date(db,date):
#将date数据插入数据库
#db = pymysql.connect("localhost","guest","12345","test", use_unicode=True, charset="utf8")
cursor = db.cursor() sql = """insert into Date(question,answer) values(%s,%s);""" %(date[0],date[1])
#print(sql)
cursor.execute(sql) db.commit() def main():
#主调函数,负责调度其他辅助函数
#主要流程如下:
#根据获取的关键字,得到首页的HTML源码和最大页数
#从源码中获取详情页的URL
#然后创建数据库用来保存爬取的数据
#遍历详情页的URL,获取问题和答案,并将获得的数据插入数据库 keyword = '标书'
[html,number] = Get_html(keyword) print("总共有%s页的结果!" %str(number)) URL = Get_URL(html)
db = Create_table() for u in URL:
#print(u)
[ask,answer] = Get_info(u)
if len(ask) > 1:
ask = """'%s'""" %ask
answer = """'%s'""" %answer
date = [ask,answer]
Load_date(db,date)
time.sleep(1)
print("首页获取完毕!")
time.sleep(3) for i in range(1,int(int(number)/10+1)):
html = Get_html(keyword,i*10)
URL = Get_URL(html)
for u in URL:
#print(u)
[ask,answer] = Get_info(u)
if len(ask) > 1:
ask = """'%s'""" %ask
answer = """'%s'""" %answer
date = [ask,answer]
Load_date(db,date)
time.sleep(1)
print("第" + str(i+1) + "页获取完毕!")
time.sleep(3) db.close() if __name__ == '__main__':
main()

python3爬取百度知道的问答并存入数据库(MySQL)的更多相关文章

  1. 从0开始学爬虫8使用requests/pymysql和beautifulsoup4爬取维基百科词条链接并存入数据库

    从0开始学爬虫8使用requests和beautifulsoup4爬取维基百科词条链接并存入数据库 Python使用requests和beautifulsoup4爬取维基百科词条链接并存入数据库 参考 ...

  2. python3爬取百度图片(2018年11月3日有效)

    最终目的:能通过输入关键字进行搜索,爬取相应的图片存储到本地或者数据库 首先打开百度图片的网站,搜索任意一个关键字,比如说:水果,得到如下的界面 分析: 1.百度图片搜索结果的页面源代码不包含需要提取 ...

  3. Python3爬取百度百科(配合PHP)

    用PHP写了一个网页,可以获取百度百科词条.源代码已分享至github:https://github.com/1049451037/xiaobaike/tree/master 那么通过Python来爬 ...

  4. <爬虫>利用BeautifulSoup爬取百度百科虚拟人物资料存入Mysql数据库

    网页情况: 代码: import requests from requests.exceptions import RequestException from bs4 import Beautiful ...

  5. NodeJs简单七行爬虫--爬取自己Qzone的说说并存入数据库

    没有那么难的,嘿嘿,说起来呢其实挺简单的,或者不能叫爬虫,只需要将自己的数据加载到程序里再进行解析就可以了,如果说你的Qzone是向所有人开放的,那么就有一个JSONP的接口,这么说来就简单了,也就不 ...

  6. python爬虫爬取ip记录网站信息并存入数据库

    import requests import re import pymysql #10页 仔细观察路由 db = pymysql.connect("localhost",&quo ...

  7. python网络爬虫抓取动态网页并将数据存入数据库MySQL

    简述以下的代码是使用python实现的网络爬虫,抓取动态网页 http://hb.qq.com/baoliao/ .此网页中的最新.精华下面的内容是由JavaScript动态生成的.审查网页元素与网页 ...

  8. Python3实现QQ机器人自动爬取百度文库的搜索结果并发送给好友(主要是爬虫)

    一.效果如下: 二.运行环境: win10系统:python3:PyCharm 三.QQ机器人用的是qqbot模块 用pip安装命令是: pip install qqbot (前提需要有request ...

  9. Python爬虫 - 爬取百度html代码前200行

    Python爬虫 - 爬取百度html代码前200行 - 改进版,  增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...

随机推荐

  1. defender 书荐

    2018全年度推荐: 1.[法]大仲马——基督山伯爵 2.[美]加西亚·马尔克斯——百年孤独 3.[法]大仲马——三个火枪手 2019第一季度推荐: 1.霍达——穆斯林的葬礼 2.[苏联]尼·奥斯特洛 ...

  2. Byte 一个字节的数据大小范围为什么是-128~127

    一个字节是8位,最高位是符号位,最高位为0则是正数.最高位为1则是负数 如果一个数是正数,最大数则为:01111111,转为十进制为127, 如果一个数是负数,按照一般人都会觉得是11111111,转 ...

  3. Spring boot项目的打包发布

    Eclipse打包发布项目 打包项目 首先需要将项目编译的文件删除,执行[Run As]->[Maven clean] 如果这个时候项目报错,在pom.xml文件中添加以下代码过滤掉单元测试 & ...

  4. [[FJOI2016]神秘数][主席树]

    明白之后 5min 就写好了-自闭- 这题的题意是问你 \([L,R]\) 区间的数字不能构成的数字的最小值- 首先考虑 如果 \([1,x]\) 可以被表示 那么加入一个 \(a_i\) 显然 \( ...

  5. xctf-i-got-id-200(perl网页文件+ARGV上传造成任意文件读取)

    打开url发现有三个链接,点进去都是.pl文件,且只有files可以上传文件. .pl文件都是用perl编写的网页文件 这里上传了又将文件的内容全部打印出来,那么猜想后台应该用了param()函数. ...

  6. CTF伪协议+preg_replace()函数的代码执行

    一道学习中所遇到的ctf 步骤: 我们点击题目链接,然后在页面先点击”云平台后台管理中心“ 然后url后面跟了参数page,题目提示了一个文件包含,我们试试index.php 看到了输出了ok,应该是 ...

  7. Chrome 浏览器相关

    ********* 问题 ********* localhost 通常会使用加密技术来保护您的信息.Google Chrome 此次尝试连接到 localhost 时,此网站发回了异常的错误凭据.这可 ...

  8. windows10 node-gyp安装

    本机环境:win10,已安装vs2017,Node版本 10.13.0 1.安装node-gyp npm install -g node-gyp 2.安装完毕之后node-gyp list看一下 no ...

  9. 深入浅出Mybatis系列二-配置简介(mybatis源码篇)

    注:本文转载自南轲梦 注:博主 Chloneda:个人博客 | 博客园 | Github | Gitee | 知乎 上篇文章<深入浅出Mybatis系列(一)---Mybatis入门>, ...

  10. POJ-3984-迷宫问题(bfs+记录路径)

    定义一个二维数组: int maze[5][5] = { 0, 1, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 1, ...