一个简单的python爬虫,爬取知乎
一个简单的python爬虫,爬取知乎
- 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片
- 文字信息暂未收录,可自行实现,比图片更简单
- 具体代码里有详细注释,请自行阅读

项目源码:
# -*- coding:utf-8 -*- from spider import SpiderHTML
from multiprocessing import Pool
import sys,urllib,http,os,random,re,time
__author__ = 'waiting'
'''
使用了第三方的类库 BeautifulSoup4,请自行安装
需要目录下的spider.py文件
运行环境:python3.4,windows7
''' #收藏夹的地址
url = 'https://www.zhihu.com/collection/30822111' #page参数改为代码添加 #本地存放的路径,不存在会自动创建
store_path = 'E:\\zhihu\收藏夹\\会员才知道的世界' class zhihuCollectionSpider(SpiderHTML):
def __init__(self,pageStart, pageEnd, url):
self._url = url
self._pageStart = int(pageStart)
self._pageEnd = int(pageEnd)+1
self.downLimit = 0 #低于此赞同的答案不收录 def start(self):
for page in range(self._pageStart,self._pageEnd): #收藏夹的页数
url = self._url + '?page='+str(page)
content = self.getUrl(url)
questionList = content.find_all('div',class_='zm-item')
for question in questionList: #收藏夹的每个问题
Qtitle = question.find('h2',class_='zm-item-title')
if Qtitle is None: #被和谐了
continue questionStr = Qtitle.a.string
Qurl = 'https://www.zhihu.com'+Qtitle.a['href'] #问题题目
Qtitle = re.sub(r'[\\/:*?"<>]','#',Qtitle.a.string) #windows文件/目录名不支持的特殊符号
try:
print('-----正在获取问题:'+Qtitle+'-----') #获取到问题的链接和标题,进入抓取
except UnicodeEncodeError:
print(r'---问题含有特殊字符无法显示---')
try:
Qcontent = self.getUrl(Qurl)
except:
print('!!!!获取出错!!!!!')
pass
answerList = Qcontent.find_all('div',class_='zm-item-answer zm-item-expanded')
self._processAnswer(answerList,Qtitle) #处理问题的答案
time.sleep(5) def _processAnswer(self,answerList,Qtitle):
j = 0
for answer in answerList:
j = j + 1 upvoted = int(answer.find('span',class_='count').string.replace('K','')) #获得此答案赞同数
if upvoted < self.downLimit:
continue
authorInfo = answer.find('div',class_='zm-item-answer-author-info') #获取作者信息
author = {'introduction':'','link':''}
try:
author['name'] = authorInfo.find('a',class_='author-link').string #获得作者的名字
author['introduction'] = str(authorInfo.find('span',class_='bio')['title']) #获得作者的简介
author['link'] = authorInfo.find('a',class_='author-link')['href']
except AttributeError:
author['name'] = '匿名用户'+str(j)
except TypeError: #简介为空的情况
pass #匿名用户没有链接 file_name = os.path.join(store_path,Qtitle,'info',author['name']+'_info.txt')
if os.path.exists(file_name): #已经抓取过
continue self.saveText(file_name,'{introduction}\r\n{link}'.format(**author)) #保存作者的信息
print('正在获取用户`{name}`的答案'.format(**author))
answerContent = answer.find('div',class_='zm-editable-content clearfix')
if answerContent is None: #被举报的用户没有答案内容
continue imgs = answerContent.find_all('img')
if len(imgs) == 0: #答案没有上图
pass
else:
self._getImgFromAnswer(imgs,Qtitle,**author) #收录图片
def _getImgFromAnswer(self,imgs,Qtitle,**author):
i = 0
for img in imgs:
if 'inline-image' in img['class']: #不抓取知乎的小图
continue
i = i + 1
imgUrl = img['src']
extension = os.path.splitext(imgUrl)[1]
path_name = os.path.join(store_path,Qtitle,author['name']+'_'+str(i)+extension)
try:
self.saveImg(imgUrl,path_name) #捕获各种图片异常,流程不中断
except:
pass #收录文字
def _getTextFromAnswer(self):
pass #命令行下运行,例:zhihu.py 1 5 获取1到5页的数据
if __name__ == '__main__':
page, limit, paramsNum= 1, 0, len(sys.argv)
if paramsNum>=3:
page, pageEnd = sys.argv[1], sys.argv[2]
elif paramsNum == 2:
page = sys.argv[1]
pageEnd = page
else:
page,pageEnd = 1,1 spider = zhihuCollectionSpider(page,pageEnd,url)
spider.start()
很多初学者,对Python的概念都是模糊不清的,C语言、Python能做什么,学的时候,该按照什么线路去学习,学完往哪方面发展,想深入了解,详情可以点击有道云笔记链接了解:http://note.youdao.com/noteshare?id=e4fa02e7b56d7909a27674cdb3da08aa
一个简单的python爬虫,爬取知乎的更多相关文章
- 简单的python爬虫--爬取Taobao淘女郎信息
最近在学Python的爬虫,顺便就练习了一下爬取淘宝上的淘女郎信息:手法简单,由于淘宝网站本上做了很多的防爬措施,应此效果不太好! 爬虫的入口:https://mm.taobao.com/json/r ...
- 一个简单的python爬虫程序
python|网络爬虫 概述 这是一个简单的python爬虫程序,仅用作技术学习与交流,主要是通过一个简单的实际案例来对网络爬虫有个基础的认识. 什么是网络爬虫 简单的讲,网络爬虫就是模拟人访问web ...
- 用Python爬虫爬取广州大学教务系统的成绩(内网访问)
用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...
- 使用Python爬虫爬取网络美女图片
代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...
- Python爬虫 - 爬取百度html代码前200行
Python爬虫 - 爬取百度html代码前200行 - 改进版, 增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...
- Python爬虫爬取全书网小说,程序源码+程序详细分析
Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...
- python爬虫—爬取英文名以及正则表达式的介绍
python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一. 爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...
- Python爬虫|爬取喜马拉雅音频
"GOOD Python爬虫|爬取喜马拉雅音频 喜马拉雅是知名的专业的音频分享平台,用户规模突破4.8亿,汇集了有声小说,有声读物,儿童睡前故事,相声小品等数亿条音频,成为国内发展最快.规模 ...
- python爬虫爬取内容中,-xa0,-u3000的含义
python爬虫爬取内容中,-xa0,-u3000的含义 - CSDN博客 https://blog.csdn.net/aiwuzhi12/article/details/54866310
随机推荐
- OpenShift 4.3环境中创建基于Go的Operator
详细步骤可以参考官方文档 https://docs.openshift.com/container-platform/4.3/operators/operator_sdk/osdk-getting-s ...
- 第三十九篇 入门机器学习——Numpy.array的基础操作——合并与分割向量和矩阵
No.1. 初始化状态 No.2. 合并多个向量为一个向量 No.3. 合并多个矩阵为一个矩阵 No.4. 借助vstack和hstack实现矩阵与向量的快速合并.或多个矩阵快速合并 No.5. 分割 ...
- 2分钟就能学会的【Google/百度搜索大法】了解一下?
之前我在知乎回答了「日常生活中有哪些十分钟就能学会并可以终生受用的技能」,现在也整理分享给公众号的朋友们. 作为一个入坑8年国际贸易的老阿姨,真心推荐[google搜索大法](同样适用于百度). 2分 ...
- 使用命令行生成动态库dll
1.安装开发工具,比如visual studio或者mingw等等.下面以visual studio编译器cl作为讲解. 2.导出dll中的函数基本使用两种方式,可以使用关键字__declspec(d ...
- [刷题] Leetcode算法 (2020-2-27)
1.最后一个单词的长度(很简单) 题目: 给定一个仅包含大小写字母和空格 ' ' 的字符串 s,返回其最后一个单词的长度. 如果字符串从左向右滚动显示,那么最后一个单词就是最后出现的单词. 如果不存在 ...
- js判断有无属性及新添属性
1.Object 判断有无新属性 obj.hasOwnProperty(propertyName) //有无指定属性propertyName Object.keys(obj) ...
- Codeforces Round #619 (Div. 2)D(模拟)
先把一种最长路线记录下来,根据k的大小存到ans中相应的答案再输出 #define HAVE_STRUCT_TIMESPEC #include<bits/stdc++.h> using n ...
- 深入 js 深拷贝对象
前言 对象是 JS 中基本类型之一,而且和原型链.数组等知识息息相关.不管是面试中,还是实际开发中我们都会碰见深拷贝对象的问题. 顾名思义,深拷贝就是完完整整的将一个对象从内存中拷贝一份出来.所以无论 ...
- html中的路径详解
路径指文件存放的位置,在网页中利用路径可以引用文件,插入图像.视频等.表示路径的方法有两种:相对路径,绝对路径.以下讨论均是在HTML环境下进行. 相对路径 相对路径是指目标相对于当前文件的路径,网页 ...
- 网站调用qq第三方登录
1. 准备工作 (1) 接入QQ登录前,网站需首先进行申请,获得对应的appid与appkey,以保证后续流程中可正确对网站与用户进行验证与授权. ① 注册QQ互联开发者账号 网址 https:/ ...