相信最开始接触Python爬虫学习的同学最初大多使用的是urllib,urllib2。在那之后接触到了第三方库requests,requests完全能满足各种http功能,真的是好用爆了 :D

他们是这样说的:

“Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。Requests 允许你发送纯天然,植物饲养的 HTTP/1.1 请求,无需手工劳动。你不需要手动为 URL 添加查询字串,也不需要对 POST 数据进行表单编码。Keep-alive 和 HTTP 连接池的功能是 100% 自动化的,一切动力都来自于根植在 Requests 内部的 urllib3。”

-----来自官方文档(http://cn.python-requests.org/zh_CN/latest/)

敲入命令“Pip Install Requests”安装即可享用(前提是已经安装了pip)

还等什么呢?赶紧import requests加入豪华午餐吧

先看看几个常用的方法和属性:

  1.requests.Session()这样就可以在会话中保留状态,保持cookie等

  2.requests.get()获取某个网页,get时你可以使用params参数发送一些数据过去

d = {key1 : value1, key2 : value2 }
requests.get(‘URL’, params=d)

  get时也可以使用headers参数定制请求头。

h = {key1 : value1, key2 : value2 }
requests.get(‘URL’, headers=d)

  3.requests.post()发送post请求,类似的,post时也可以发送数据(使用data参数)和定制请求头(使用headers参数)。

一些常用的属性:

eg=requests.get()
eg.text  #可以获取响应的内容如抓回来的网页
eg. encoding='utf-8'  #有时回来的是乱码,改变编码以使其正常显示根据实际情况改变编码utf-8、gb2312等
eg. content  #可以获取二进制内容,如抓取登陆时的验证码等非字符资源
eg.cookies  #可以查看当前保存的cookie情况
eg. status_code  #可以查看HTTP状态码(如200 OK、404 Not Found等)
eg.url  #可以查看当前请求的网址

其他详细内容参见官方文档(http://cn.python-requests.org/zh_CN/latest/)

好了,其实只要懂那么一点点就可以进行爬虫之旅了。

一个有趣的现象:童鞋们在学习爬虫时都会去爬一个叫做“教务处”的网站,哈哈。那这里的小爬虫也是以登陆本校(成都信息工程大学)的教务处作为实例

首先使用浏览器打开教务处,按F12打开“开发人员工具”,进行一次正常的登陆,对登陆的数据进行分析。

  1.教务处的登陆页面为http://210.41.224.117/Login/xLogin/Login.asp

  2.在开发者工具中点击网络,经查看登陆的发送post数据的地址也是http://210.41.224.117/Login/xLogin/Login.asp

  3.同时看到post的数据包括如下

参数列表

表单名

说明

WinW

1366

屏幕分辨率-宽

WinH

728

屏幕分辨率-高

txtId

2013215042

学号

txtMM

123456

密码

verifycode

123a

验证码

codeKey

597564

动态登陆码,html文件中可见

Login

Check

登陆类型(固定)

IbtnEnter.x

10

登陆按钮点击位置

IbtnEnter.y

10

登陆按钮点击位置

“开发者工具”中的登陆post表单数据:

  4.其中codeKey在登陆页载入时可以在页面中获得(使用正则表达式获取)。

那么思路来了:

  1.get()载入登陆页

  2.在载入页中获取codeKey和验证码

  3.使用post()将登陆学号、密码、验证码等参数发送过去

  4.登陆成功。

然而事实并不是如此顺利,经以上思路登陆之后会返回“LoginOK!”登陆成功的消息,本来是要经两个302跳转到教务处的学生主页的,但并不能顺利跳转而且哪怕手动加载学生页不行。

经再次分析发现从教务处首页点击登陆链接并不是直接链接到登陆页http://210.41.224.117/Login/xLogin/Login.asp,而是先访问http://jxgl.cuit.edu.cn/JXGL/xs/MainMenu.asp试图打开学生页失败,再经跳转到一个http://210.41.224.117/Login/qqLogin.asp?Oid=jxgl.cuit.edu.cn&OSid=*********再经这里跳转才到登陆页,其中的OSid为服务器下发分配的。实践表明我需要模仿这个过程才能顺利登陆成功。

好了,那么思路再次来了:

  1. get(‘http://jxgl.cuit.edu.cn/JXGL/xs/MainMenu.asp’)这里要get两次才能跳转到登陆页
  2. 在载入的登陆页中获取codeKey和验证码
  3. 使用post()将登陆学号、密码、验证码等参数发送过去
  4. 登陆成功,加载学生主页

要点:

  1. 两次get()之后得到一个跳转页面由浏览器执行javascript自动跳转,但在爬虫里需要在这个页面中找出跳转的地址手动跳转过去。使用正则表达式在javascript代码中获取需要跳转的网址,再get该网址即可。
  2. 获取验证码,验证码是随机生成的,得到验证码刷新地址http://210.41.224.117/Login/xLogin/yzmDvCode.asp?k=597564&t=1471855009329其中参数k为codeKey,t为时间戳加上三位随机数。那就使用前边提到eg. content可以获取二进制内容将图片保存下来再打开人工识别后输入验证码。

思考完毕,接下来就是实现了,最后的登陆代码如下:

#coding=utf-8
import requests
import re
import time
import random
from PIL import Image
import cStringIO
def login(username,password):
headers = { #请求头请求刷新验证码和发送post时需要使用
'Host': '210.41.224.117',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:48.0) Gecko/20100101 Firefox/48.0',
'Accept': '*/*',
'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
'Accept-Encoding': 'gzip, deflate',
'Referer': 'http://210.41.224.117/Login/xLogin/Login.asp',
'Connection': 'keep-alive'
}
session = requests.Session()
step1 = session.get('http://jxgl.cuit.edu.cn/JXGL/xs/MainMenu.asp') #连get两次学生主页以跳转至登陆页
step1 = session.get("http://jxgl.cuit.edu.cn/Jxgl/Xs/MainMenu.asp")
get_osid_url = re.compile(r'content="0;URL=(.*?)">') #获取含OSid的跳转网址
osid_url = get_osid_url.findall(step1.text)
step2 = session.get(osid_url[0]) #跳转,上文要点1
get_codeKey = re.compile(r'var codeKey = \'(.*?)\';') #在登陆页html中获取codeKey(参数k)
codeKey = get_codeKey.findall(step2.text)
timeKey = str(time.time())[:10] + str(random.randint(100, 999)) #生成参数t的值(时间戳+三位随机数)
payload = {'k': codeKey[0], 't': timeKey}
yzm_url='http://210.41.224.117/Login/xLogin/yzmDvCode.asp'
yzmdata = session.get(yzm_url, params=payload, headers=headers) #刷新验证码,上文要点2
tempIm = cStringIO.StringIO(yzmdata.content)
im = Image.open(tempIm)
im.show()
yzm = raw_input('please enter yzm: ') #人工识别验证码后输入
post_data = {
'WinW': '',
'WinH': '',
'txtId': username,
'txtMM': password,
'verifycode': yzm,
'codeKey': codeKey[0],
'Login': 'Check',
'IbtnEnter.x': 10,
'IbtnEnter.y': 10
}
post_url='http://210.41.224.117/Login/xLogin/Login.asp'
step3 = session.post(post_url, data=post_data, headers=headers) #post登陆数据
return session cuitJWC=login('username','password')
con=cuitJWC.get('http://jxgl.cuit.edu.cn/JXGL/xs/MainMenu.asp')
con.encoding='gb2312'
print con.text

转载请注明出处:http://www.cnblogs.com/lucky-pin/p/5806394.html

Python 爬虫入门(requests)的更多相关文章

  1. Python爬虫入门(二)之Requests库

    Python爬虫入门(二)之Requests库 我是照着小白教程做的,所以该篇是更小白教程hhhhhhhh 一.Requests库的简介 Requests 唯一的一个非转基因的 Python HTTP ...

  2. python爬虫入门-开发环境与小例子

    python爬虫入门 开发环境 ubuntu 16.04 sublime pycharm requests库 requests库安装: sudo pip install requests 第一个例子 ...

  3. Python 爬虫入门(二)——爬取妹子图

    Python 爬虫入门 听说你写代码没动力?本文就给你动力,爬取妹子图.如果这也没动力那就没救了. GitHub 地址: https://github.com/injetlee/Python/blob ...

  4. 1.Python爬虫入门一之综述

    要学习Python爬虫,我们要学习的共有以下几点: Python基础知识 Python中urllib和urllib2库的用法 Python正则表达式 Python爬虫框架Scrapy Python爬虫 ...

  5. Python 爬虫入门之爬取妹子图

    Python 爬虫入门之爬取妹子图 来源:李英杰  链接: https://segmentfault.com/a/1190000015798452 听说你写代码没动力?本文就给你动力,爬取妹子图.如果 ...

  6. 孤荷凌寒自学python第六十七天初步了解Python爬虫初识requests模块

    孤荷凌寒自学python第六十七天初步了解Python爬虫初识requests模块 (完整学习过程屏幕记录视频地址在文末) 从今天起开始正式学习Python的爬虫. 今天已经初步了解了两个主要的模块: ...

  7. Python爬虫入门一之综述

    大家好哈,最近博主在学习Python,学习期间也遇到一些问题,获得了一些经验,在此将自己的学习系统地整理下来,如果大家有兴趣学习爬虫的话,可以将这些文章作为参考,也欢迎大家一共分享学习经验. Pyth ...

  8. Python爬虫入门教程 48-100 使用mitmdump抓取手机惠农APP-手机APP爬虫部分

    1. 爬取前的分析 mitmdump是mitmproxy的命令行接口,比Fiddler.Charles等工具方便的地方是它可以对接Python脚本. 有了它我们可以不用手动截获和分析HTTP请求和响应 ...

  9. Python爬虫入门教程 43-100 百思不得姐APP数据-手机APP爬虫部分

    1. Python爬虫入门教程 爬取背景 2019年1月10日深夜,打开了百思不得姐APP,想了一下是否可以爬呢?不自觉的安装到了夜神模拟器里面.这个APP还是比较有名和有意思的. 下面是百思不得姐的 ...

  10. Python爬虫入门之正则表达式

    在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式! 1.了解正则表达式 正则表达式是对字符串操作的 ...

随机推荐

  1. Newton's Method

    在求最优解时,前面很多地方都用梯度下降(Gradient Descent)的方法,但由于最优步长很难确定,可能会出现总是在最优解附近徘徊的情况,致使最优解的搜索过程很缓慢.牛顿法(Newton's M ...

  2. Getting started: A skeleton application

    Getting started: A skeleton application In order to build our application, we will start with theZen ...

  3. linux 学习笔记 GNU工具链简介

    我们通常无法直接通过Linux内核,而需要借助Linux内核之上的GUN工具链来进行 文件处理 文本操作 进程管理 等操作. GNU/Linux shell为用户提供了 启动程序 管理文件系统上的文件 ...

  4. PHP代码实现MySQL读写分离

    关于MySQL的读写分离有几种方法:中间件,Mysql驱动层,代码控制 关于中间件和Mysql驱动层实现Mysql读写分离的方法,今天暂不做研究, 这里主要写一点简单的代码来实现由PHP代码控制MyS ...

  5. 【思考】由安装zabbix至排障php一系列引发的思考

    [思考]由安装zabbix至排障php一系列引发的思考 linux的知识点林立众多,很有可能你在排查一个故障的时候就得用到另一门技术的知识: 由于linux本身的应用依赖的库和其它环境环环相扣,但又没 ...

  6. mapping 详解3(Meta-Fields)

    文档标识相关元数据字段 _index 当执行多索引查询时,可能需要添加特定的一些与文档有关联的索引的子句. _index 字段可以用在 term.terms 查询,聚合(aggregations)操作 ...

  7. 史上最全的phpstorm常用配置

    取消自动保存并标识修改的文件为星星标记 1.取消自动保存 进入 File -> Settings -> General,取消下面两选项的勾选: 2.星星标记 进入 File -> S ...

  8. 【高级JEE技术】JMX

    JMX即Java Manager Extentin(java 管理扩展)一种动态改变javabean属性值的技术,具体应用场景可以有很多.比如使用JMX作为线上应用的开关,在做一些新老系统改造的时候 ...

  9. 初学android:四大组件之contentprovider

    一.ContentProvider的概念ContentProvider:为存储和获取数据提供统一的接口.可以在不同的应用程序之间共享数据.Android已经为常见的一些数据提供了默认的ContentP ...

  10. Response.Redirect("");Server.Transfer("")跳转页面的区别

      Response.Redirect("") Server.Transfer("") 转向其他站点 能 不能(只能站内转向) 是否可带QueryString参 ...