前面说了使用浏览器登录较为简单,不需要过多分析,而使用请求登录恰恰就是以分析为主. 开发一个请求登录程序的流程: 分析请求->模拟请求->测试登录->调整参数->测试登录->登录成功 一.分析网页 从网页着手,打开博客园的登录页面,F12调出网页调试,选择network的tab,然后登录,登录成功后大致有如下请求可以看到: 可以看到圈起来的signin请求,很明显这个就是登录的请求,别的网站也有叫login之类的,大同小异. 我们来仔细看一下这个请求. 主要注意到:使用pos…
目标 之前的自动答复机器人需要从一个内部网页上获取的消息用于回复一些问题,但是没有对应的查询api,于是想到了用脚本模拟浏览器访问网站爬取内容返回给用户.详细介绍了第一次探索python爬虫的坑. 准备工作 requests模块向网站发送http请求,BeautifulSoup模块来从静态HTML文本中提取我们想要的数据,更高级的,对于动态加载页面我们需要用webdriver去模拟真实的网页访问,并解析内容. 推荐使用Anaconda 这个科学计算版本,主要是因为它自带一个包管理工具,可以解决有…
Python爬虫教程-13-爬虫使用cookie爬取登录后的页面(下) 自动使用cookie的方法,告别手动拷贝cookie http模块包含一些关于cookie的模块,通过他们我们可以自动的使用cookie - CookieJar 管理存储Cookie,向传出的http请求添加cookie 这里Cookie存储在内存中,CookieJar实例回收后cookie将消失 FileCookieJar(filename, delayload=None, policy=None) 使用文件管理cooki…
python爬虫如何POST request payload形式的请求1. 背景最近在爬取某个站点时,发现在POST数据时,使用的数据格式是request payload,有别于之前常见的 POST数据格式(Form data).而使用Form data数据的提交方式时,无法提交成功. 于是上网查了下二者的区别:http://xiaobaoqiu.github.io/blog/2014/09/04/form-data-vs-request-payload/,下面做了搬运工(侵权立删…)1.1.…
爬虫主要目的是获取数据,常见的数据可以直接访问网页或者抓包获取,然后再解析即可. 一些较为隐私的数据则不会让游客身份的访问者随便看到,这个时候便需要登录获取. 一般获取数据需要的是登录后的cookie作为身份验证,如果一个可用cookie就能满足你的爬虫需要,可以不用模拟登录, 直接在网页上登录,拷贝cookie下来,写死在代码中. 其他的情况可能需要代码帮你登录,然后获取登录的cookie,再去访问你需要的数据. 首先,你需要有一个帐号(或者多个,当你想大量访问数据而cookie又有限制时.)…
一.常用库 1.requests 做请求的时候用到. requests.get("url") 2.selenium 自动化会用到. 3.lxml 4.beautifulsoup 5.pyquery 网页解析库 说是比beautiful 好用,语法和jquery非常像. 6.pymysql 存储库.操作mysql数据的. 7.pymongo 操作MongoDB 数据库. 8.redis 非关系型数据库. 9.jupyter 在线记事本. 二.什么是Urllib Python内置的Http…
Python爬虫教程-12-爬虫使用cookie(上) 爬虫关于cookie和session,由于http协议无记忆性,比如说登录淘宝网站的浏览记录,下次打开是不能直接记忆下来的,后来就有了cookie和session机制 Python爬虫爬取登录后的页面 所以怎样让爬虫使用验证用户身份信息的cookie呢,换句话说,怎样在使用爬虫的时候爬取已经登录的页面呢,这就是本篇的重点 cookie和session介绍 cookie是发给用户的(即http浏览器)的一段信息 session是保存在服务器上…
一.常用库 1.requests 做请求的时候用到. requests.get("url") 2.selenium 自动化会用到. 3.lxml 4.beautifulsoup 5.pyquery 网页解析库 说是比beautiful 好用,语法和jquery非常像. 6.pymysql 存储库.操作mysql数据的. 7.pymongo 操作MongoDB 数据库. 8.redis 非关系型数据库. 9.jupyter 在线记事本. 二.什么是Urllib Python内置的Http…
这此教程可能会比较简洁,具体细节可参考我的第一篇教程: Python爬虫个人记录(一)豆瓣250 Python爬虫个人记录(二)fishc爬虫 一.目的分析 获取煎蛋妹子图并下载 http://jandan.net/ooxx 大概就是这么个样子了^_^ 心动了吗,那就行动吧. 二.步骤分析 1.访问http://jandan.net/ooxx 获得当前妹子图的页码 2. 获得http://jandan.net/ooxx前十页地址 3.分析前十页地址并获得图片真实下载地址 4.下载前十页的妹子图并…
一.安装 pip install scrapy. 如果提示需要什么包就装什么包 有的包pip安装不起,需要自己下载whl文件进行安装. 二.基本的爬虫流程 通用爬虫有如下几步: 构造url -->> 请求,获取页面内容  -->> 分析页面内容(解析) -->> 保存结果     三.scrapy的爬虫流程 scrapy的流程与普通爬虫相同,有url作为输入--start_urls: 有请求--Requests,通常不需要自己构建,需要特殊参数时可使用settings配…