我喜欢去ZOL找一些动漫壁纸当作桌面,而一张一张保存显然是太慢了. 那怎么办呢,我们尝试使用简单的爬虫来解决这个问题. 0. 本爬虫目标 抓取给定分类「或子分类」网址的内容 分析并得到每个分类下的所有图片专辑 下载每一个专辑中的图片「每一个专辑对应一个文件夹」 1. 必要的分析 我们打开浏览器,输入http://desk.zol.com.cn/,跳转到ZOL壁纸的首页. 右键 -> 查看源代码 大致浏览一下都有什么东西 我们可以了解到,需要下载一张图片,我们需要选择一个专题 进入专题后,我们通过…
上一篇文章中,我们介绍了python爬虫利器--requests,并且拿HDU做了小测试. 这篇文章,我们来爬取一下自己AC的代码. 1 确定ac代码对应的页面 如下图所示,我们一般情况可以通过该顺序找到我们曾经AC过的代码 登陆hdu -> 点击自己的信息 -> 点击Last accepted submissions -> 在Code Len 处选择一个代码 -> 看到你AC的代码 我们可以看到,所有AC代码的页面都是 http://acm.hdu.edu.cn/viewcode…
最近看机器学习挺火的,然后,想要借助业余时间,来学习Python,希望能为来年找一份比较好的工作. 首先,学习得要有动力,动力,从哪里来呢?肯定是从日常需求之中来.我学Python看网上介绍.能通过Python来编写爬虫,于是,我也的简单的看了一下Python的介绍,主要是Python的一些语法,还有正则表达式. 好了,学习使用Python之前,来给大家看一下我们需要进行爬去的网站: 看到这个网站,感谢美女很养眼的同时,网站的图片也不太过,就是比较性感而已.看到这个多的美女,你想不想要将这些爬取…
利用Python完成简单的图片爬取 最近学习到了爬虫,瞬时觉得很高大上,想取什么就取什么,感觉要上天.这里分享一个简单的爬取汽车之家文章列表的图片教程,供大家学习. 需要的知识点储备 本次爬虫脚本依赖两个模块:requests模块,BeautifulSoup模块.其中requests模块完成url的请求,而BeautifulSoup模块负责解析Html标签. requests模块 requests.get(url)  向URL发起GET请求 requests.post(url)  向URL发起P…
作为一名Pythoner,相信大家对Python的就业前景或多或少会有一些关注.索性我们就写一个爬虫去获取一些我们需要的信息,今天我们要爬取的是前程无忧!说干就干!进入到前程无忧的官网,输入关键字"Python",我们会得到下面的页面 我们可以看到这里罗列了"职位名"."公司名"."工作地点"."薪资"."发布时间",那么我们就把这些信息爬取下来吧!确定了需求,下一步我们就审查元素找到我…
实例需求:运用python语言在http://www.ip138.com/post/网站爬取全国各个省市县级城市的邮政编码,并且保存在excel文件中 实例环境:python3.7 requests库(内置的python库,无需手动安装) xlwt库(需要自己手动安装) 实例网站: 第一步,在http://www.ip138.com/post/网站通过查询源代码可以找到各个省份的链接  第二步,点击链接,即可看到所点击省份的城市的邮政编码 实例代码: import requests import…
python爬虫学习01--电子书爬取 1.获取网页信息 import requests #导入requests库 ''' 获取网页信息 ''' if __name__ == '__main__': #主函数入口 target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址 req = requests.get(url=target) #进行get请求 req.encoding='utf-8' #设置编码 print(req.…
0. 前言 如果你从来没有接触过爬虫,刚开始的时候可能会有些许吃力 因为我不会从头到尾把所有知识点都说一遍,很多文章主要是记录我自己写的一些爬虫 所以建议先学习一下cuiqingcai大神的 Python爬虫学习系列教程 的入门部分. 它的整个系列教程我觉得写得非常好,值得一看! 当然,即便是你什么都不会,也没关系. 只要有一颗上进的心,没什么是学不会的. 希望我的文章能给你些许帮助! 1. 扒下一个网页 什么都不讲,直接上一段代码 import urllib2 html = urllib2.u…
开篇 作为一个C党,接触python之后学习了爬虫. 和AC算法题的快感类似,从网络上爬取各种数据也很有意思. 准备写一系列文章,整理一下学习历程,也给后来者提供一点便利. 我是目录 听说你叫爬虫 -- 总目录 听说你叫爬虫(1) -- 从urllib说起 听说你叫爬虫(2) -- 爬一下ZOL壁纸 听说你叫爬虫(3) -- 模拟登陆 听说你叫爬虫(4) -- 手刃「URP教务系统」 听说你叫爬虫(5) -- 扒一下codeforces题面 听说你叫爬虫(6) -- 神器 Requests 听说…
之前在学习爬虫时,偶尔会遇到一些问题是有些网站需要登录后才能爬取内容,有的网站会识别是否是由浏览器发出的请求. 一.headers的获取 就以博客园的首页为例:http://www.cnblogs.com/ 打开网页,按下F12键,如下图所示: 点击下方标签中的Network,如下: 之后再点击下图所示位置: 找到红色下划线位置所示的标签并点击,在右边的显示内容中可以查看到所需要的headers信息. 一般只需要添加User-Agent这一信息就足够了,headers同样也是字典类型: user…