#! /usr/bin/python # coding:utf-8 #导入requests库 import requests #获取会话 s = requests.session() #创建登录数据 data={'uid':'admin','passw':'admin'} #利用登录数据登录指定登录页面url res = s.post('http://demo.testfire.net/bank/login.aspx',data); #抓取的页面 resOK = s.get('http://de…
w3cschool上的来练练手,爬取笔趣看小说http://www.biqukan.com/, 爬取<凡人修仙传仙界篇>的所有章节 1.利用requests访问目标网址,使用了get方法 2.使用BeautifulSoup解析返回的网页信息,使用了BeautifulSoup方法 3.从中获取我们需要的小说内容,使用了find,find_all等方法 4.进行格式化处理,主要是python里字典和列表的运算 5.保存到txt文件,涉及一些简单的文件操作,open,write等 import re…
官方文档 以下内容大多来自于官方文档,本文进行了一些修改和总结.要了解更多可以参考 官方文档 安装 利用 pip 安装 $ pip install requests 或者利用 easy_install $ easy_install requests 通过以上两种方法均可以完成安装. 引入 首先我们引入一个小例子来感受一下 import requests r = requests.get('http://cuiqingcai.com') print type(r) print r.status_c…
前言 之前我们用了 urllib 库,这个作为入门的工具还是不错的,对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助.入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取.那么这一节来简单介绍一下 requests 库的基本用法. 注:Python 版本依然基于 2.7 官方文档 以下内容大多来自于官方文档,本文进行了一些修改和总结.要了解更多可以参考 官方文档 安装 利用 pip 安装   1 $ pip install requests 或者利用 easy_install  …
我们都见识过requests库在静态网页的爬取上展现的威力,我们日常见得最多的为get和post请求,他们最大的区别在于安全性上: 1.GET是通过URL方式请求,可以直接看到,明文传输. 2.POST是通过请求header请求,可以开发者工具或者抓包可以看到,同样也是明文的. 3.GET请求会保存在浏览器历史纪录中,还可能会保存在Web的日志中. 两者用法上也有显著差异(援引自知乎): 1.GET用于从服务器端获取数据,包括静态资源(HTML|JS|CSS|Image等等).动态数据展示(列表…
[本文出自天外归云的博客园] 之前写过一篇关于nose使用方法的博客.最近在做一元乐购产品的接口测试,结合着python的requests库可以很方便的进行web接口测试并生成测试结果.接口测试脚本示例如下(脚本路径为“E:\forPytest\test_new_product_detail.py”): # -*- coding: utf-8 -*- from nose.tools import nottest,istest,assert_equal,assert_in from nose_it…
由于web接口自动化测试需要用到python的第三方库--requests库,运用requests库可以模拟发送http请求,再结合unittest测试框架,就能完成web接口自动化测试. 所以笔者今天先来总结一下requests库的用法.希望对大家(尤其是新手)有帮助哦!大家可要仔细阅读,加油! // // 目录隐藏目录显示目录 1.GET请求   1.1查看get函数的使用   1.2 requests的get函数的入参说明   1.3 requests函数的返回值(http响应)   1.…
1.安装 利用pip来安装reques库,进入pip的下载位置,打开cmd,默认地址为 C:\Python27\Scripts 可以看到文件中有pip.exe,直接在上面输入cmd回车,进入命令行界面,输入下载指令即可下载 pip install requests 2.基本请求 requests库提供了http所有的基本请求方式. r = requests.get("http://httpbin.org/get") r = requests.post("http://http…
利用Requests+正则表达式爬取猫眼电影top100 目标站点分析 流程框架 爬虫实战 使用requests库获取top100首页: import requests def get_one_page(url): response = requests.get(url) if response.status_code == 200: return response.text return None def main(): url = 'http://maoyan.com/board/4?off…
urllib库在很多时候都比较繁琐,比如处理Cookies.因此,我们选择学习另一个更为简单易用的HTTP库:Requests. requests官方文档 1. 什么是Requests Requests是用python编写,基于urllib,采用Apache2 Licensed开源协议的HTTP库.它比urllib更加简单易用. 2. 使用Requests库 2.1 构建请求 使用requests可以很方便的构建请求: r = requests.get('https://api.github.c…