爬虫03 /代理、cookie处理、模拟登录、提升爬虫效率

1. 代理

  • 代理概念:代理服务器。

  • 作用:接收请求==》请求转发。

  • 代理和爬虫之间的关联:

    • 可以使用请求转发的机制使得目的服务器接收到的请求对应ip的一个改变。
  • 为什么要使用代理改变请求的ip地址?

    • 爬虫程序在短时间内对指定的服务器发起了一个高频的请求,则请求对应的ip可能会被目的服务器禁止。
  • 代理的一些基础知识:

    • 代理的匿名度:

      • 透明代理:目的服务器知道你使用了代理机制并且也知道你的真实IP
      • 匿名代理:知道使用了代理机制,但是不知道你的真实ip
      • 高匿代理:不知道使用了代理,也不知道你的真实ip
    • 代理的类型:
      • http
      • https
  • 免费代理ip:

    • 快代理
    • 西祠代理
    • www.goubanjia.com
    • 代理精灵
  • get/post方法中使用proxies请求代理的设置

    • proxies={'http':'ip:port'}
  • 需求:测试一下代理是否会生效

    • 准备:

      • 代理ip和端口号
      • 测试的过程
    • 代码示例:
    import requests
    url = 'https://www.baidu.com/s?ie=utf-8&wd=ip'
    headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'
    }
    page_text = requests.get(url=url,headers=headers,proxies={'https':'112.195.96.115:32092'}).text
    with open('./ip.html','w',encoding='utf-8') as fp:
    fp.write(page_text)
  • 代理池的构建:就是一个列表,列表中存储的是字典。每一个字典存储的键值{'http':'ip:port'}

  • 对西祠代理发起一个高频的请求,使得本机ip被禁止,然后采用代理池解决代理的反爬

    all_ips = []
    url = 'http://t.11jsq.com/index.php/api/entry?method=proxyServer.generate_api_url&packid=1&fa=0&fetch_key=&groupid=0&qty=30&time=1&pro=&city=&port=1&format=txt&ss=3&css=&dt=1&specialTxt=3&specialJson=&usertype=2'
    page_text = requests.get(url,headers=headers).text
    tree = etree.HTML(page_text)
    ip_list = tree.xpath('//body//text()')[0].split('\n')
    for ip in ip_list:
    dic = {
    'https':ip
    }
    all_ips.append(dic)
    from lxml import etree
    import random
    url = 'https://www.xicidaili.com/nn/%d'
    ips = []
    for page in range(1,3):
    new_url = format(url%page)
    page_text = requests.get(new_url,headers=headers,proxies=random.choice(all_ips)).text
    tree = etree.HTML(page_text)
    # 在xpath表达式中一定不可以出现tbody标签
    tr_list = tree.xpath('//*[@id="ip_list"]//tr')[1:]
    for tr in tr_list:
    ip = tr.xpath('./td[2]/text()')[0]
    ips.append(ip)
    print(len(ips))

2. cookie处理

  • cookie的处理

    • 手动处理

      • 将cookie作用到headers中即可
    • 自动处理
      • session = requests.Session()
      • session的作用:
        • session可以像requests模块一样调用get和post进行请求发送
        • 在进行请求发送的过程中如果产生了cookie,则cookie会被自动存储到session对象中。
  • 请求头中重要的头信息

    • User-Agent
    • Cookie
    • Referer
  • 需求:https://xueqiu.com/,对雪球网中的新闻数据进行爬取

  • 分析:

    • 新闻数据是通过ajax动态加载出来的
    • 捕获到ajax数据包中的url
  • 代码实现:

    session = requests.Session()
    # 第一次请求发送:为了捕获cookie且存储到session对象中
    first_url = 'https://xueqiu.com/'
    session.get(first_url,headers=headers) # 第二次请求发送:携带cookie进行的请求发送
    url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=20358211&count=15&category=-1'
    json_data = session.get(url=url,headers=headers).json()
    json_data

3. 模拟登录

  • 为什么需要进行模拟登录:

    • 有些数据不经过登录是访问不到
  • 验证码的处理:

    • 基于线上的打码平台来实现

    • 超级鹰的使用流程:
      • 基于用户中心的身份进行注册
      • 用户中心的身份进行登录:
        • 充值
        • 创建一个软件:软件ID-》生成软件ID
        • 下载示例代码:开发文档-》Python-》下载
  • 下载示例代码:

    import requests
    from hashlib import md5 class Chaojiying_Client(object): def __init__(self, username, password, soft_id):
    self.username = username
    password = password.encode('utf8')
    self.password = md5(password).hexdigest()
    self.soft_id = soft_id
    self.base_params = {
    'user': self.username,
    'pass2': self.password,
    'softid': self.soft_id,
    }
    self.headers = {
    'Connection': 'Keep-Alive',
    'User-Agent': 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)',
    } def PostPic(self, im, codetype):
    """
    im: 图片字节
    codetype: 题目类型 参考 http://www.chaojiying.com/price.html
    """
    params = {
    'codetype': codetype,
    }
    params.update(self.base_params)
    files = {'userfile': ('ccc.jpg', im)}
    r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, files=files, headers=self.headers)
    return r.json() def ReportError(self, im_id):
    """
    im_id:报错题目的图片ID
    """
    params = {
    'id': im_id,
    }
    params.update(self.base_params)
    r = requests.post('http://upload.chaojiying.net/Upload/ReportError.php', data=params, headers=self.headers)
    return r.json()
    # 执行代码
    chaojiying = Chaojiying_Client('bobo328410948', 'bobo328410948', '899370')
    im = open('a.jpg', 'rb').read()
    print(chaojiying.PostPic(im, 1902))
  • 使用打码平台识别古诗文网中的验证码图片

    # 封装一个识别验证码的函数
    def transformCode(imgPath,imgType):
    chaojiying = Chaojiying_Client('bobo328410948', 'bobo328410948', '899370')
    im = open(imgPath, 'rb').read()
    return chaojiying.PostPic(im, imgType)['pic_str']
    • 先将验证码图片下载到本地文件,再使用打码平台对验证码图片进行识别
    url = 'https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx'
    page_text = requests.get(url,headers=headers).text
    tree = etree.HTML(page_text)
    # 解析到了验证码图片的地址
    code_img_src = 'https://so.gushiwen.org'+tree.xpath('//*[@id="imgCode"]/@src')[0]
    img_data = requests.get(code_img_src,headers=headers).content
    with open('./code.jpg','wb') as fp:
    fp.write(img_data)
    transformCode('./code.jpg',1902)
  • 模拟登录

    • 对点击登录按钮对应的url进行请求发送
    • 动态变化的请求参数:
      • 一般都会被隐藏在前台页面中
      • 基于抓包工具对请求参数的名称进行全局搜索
  • 古诗文网模拟登录代码示例:

    # 处理cookie
    session = requests.Session() # 获取且识别验证码
    url = 'https://so.gushiwen.org/user/login.aspx?from=http://so.gushiwen.org/user/collect.aspx'
    page_text = session.get(url,headers=headers).text
    tree = etree.HTML(page_text) # 解析到了验证码图片的地址
    code_img_src = 'https://so.gushiwen.org'+tree.xpath('//*[@id="imgCode"]/@src')[0] # 解析出模拟登录请求中动态变化的两个请求参数的值
    __VIEWSTATE = tree.xpath('//*[@id="__VIEWSTATE"]/@value')[0]
    __VIEWSTATEGENERATOR = tree.xpath('//*[@id="__VIEWSTATEGENERATOR"]/@value')[0] # 对图片进行请求时捕获cookie
    img_data = session.get(code_img_src,headers=headers).content
    with open('./code.jpg','wb') as fp:
    fp.write(img_data) # 验证码对应的文本数据
    code_text = transformCode('./code.jpg',1902)
    print(code_text) # 对于登录按钮的点击进行请求发送
    login_url = 'https://so.gushiwen.org/user/login.aspx?from=http%3a%2f%2fso.gushiwen.org%2fuser%2fcollect.aspx'
    data = {
    '__VIEWSTATE': __VIEWSTATE,
    '__VIEWSTATEGENERATOR': __VIEWSTATEGENERATOR,
    'from': 'http://so.gushiwen.org/user/collect.aspx',
    'email': 'www.zhangbowudi@qq.com',
    'pwd': 'bobo328410948',
    'code': code_text,
    'denglu': '登录',
    }
    login_page_text = session.post(url=login_url,headers=headers,data=data).text
    with open('./gushiwen.html','w',encoding='utf-8') as fp:
    fp.write(login_page_text)

4. 如何提升爬取数据的效率

  • 线程池

  • 多任务的异步协程

    • asyncio

      • 特殊的函数
      • 协程
      • 任务对象
        • 任务对象绑定
      • 事件循环
  • from multiprocessing.dummy import Pool

  • map(func,alist):

    • 可以让func回调函数处理alist中的每一个列表元素,这个处理的过程是基于异步。
  • 代码示例:

    import requests
    import time
    from multiprocessing.dummy import Pool
    start = time.time()
    pool = Pool(3)
    urls = [
    'http://127.0.0.1:5000/index',
    'http://127.0.0.1:5000/index',
    'http://127.0.0.1:5000/index'
    ]
    # 用作与网络请求(耗时)
    def req(url):
    return requests.get(url).text page_text_list = pool.map(req,urls)
    print(page_text_list)
    print('总耗时:',time.time()-start)

总结:

  1. 在xpath表达式中一定不可以出现tbody标签
  2. 常见反爬机制:
    • 验证码
    • 动态变化的请求参数
    • cookie
    • 代理
    • UA
    • robots

爬虫03 /代理、cookie处理、模拟登录、提升爬虫效率的更多相关文章

  1. Scrapy用Cookie实现模拟登录

    模拟登录是爬取某些站点内容的一个关键,有些网站(特别是论坛类),不登录的话,一个数据也拿不到. 模拟登录有这样几个关键: 弄清楚登录的url一些网站打开出现登录的页面,地址栏大多数不是登录提交表单的u ...

  2. python之cookie, cookiejar 模拟登录绕过验证

    0.思路 如果懒得模拟登录,或者模拟登录过于复杂(多步交互或复杂验证码)则人工登录后手动复制cookie(或者代码读取浏览器cookie),缺点是容易过期. 如果登录是简单的提交表单,代码第一步模拟登 ...

  3. urllib库利用cookie实现模拟登录慕课网

    思路 1.首先在网页中使用账户和密码名登录慕课网 2.其次再分析请求头,如下图所示,获取到请求URL,并提取出cookie信息,保存到本地 3.最后在代码中构造请求头,使用urllib.request ...

  4. 【网络爬虫】【python】网络爬虫(三):模拟登录——伪装浏览器登录爬取过程

    一.关于抓包分析和debug Log信息 模拟登录访问需要设置request header信息,对于这个没有概念的朋友可以参见本系列前面的java版爬虫中提到的模拟登录过程,主要就是添加请求头requ ...

  5. Python爬虫初学(三)—— 模拟登录知乎

    模拟登录知乎 这几天在研究模拟登录, 以知乎 - 与世界分享你的知识.经验和见解为例.实现过程遇到不少疑问,借鉴了知乎xchaoinfo的代码,万分感激! 知乎登录分为邮箱登录和手机登录两种方式,通过 ...

  6. python爬虫【实战篇】模拟登录人人网

    requests 提供了一个叫做session类,来实现客户端和服务端的会话保持 使用方法 1.实例化一个session对象 2.让session发送get或者post请求 session = req ...

  7. python中使用cookie进行模拟登录

    背景:使用cookie模拟登录豆瓣->我的豆瓣网页 [准备工作] 1.通过Fiddler抓取“我的豆瓣”url: 2.通过Fiddler抓取“我的豆瓣”cookie值. import urlli ...

  8. Cookies与保持登录(新浪微博的简单模拟登录)

    Cookies与保持登录(新浪微博的简单登录) .note-content {font-family: "Helvetica Neue",Arial,"Hiragino ...

  9. Python爬虫入门:Cookie的使用

    大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用. 为什么要使用Cookie呢? Cookie,指某些网站为了辨别用户身份.进行session跟踪而储存在 ...

随机推荐

  1. Hadoop + Hive + HBase + Kylin伪分布式安装

    问题导读 1. Centos7如何安装配置? 2. linux网络配置如何进行? 3. linux环境下java 如何安装? 4. linux环境下SSH免密码登录如何配置? 5. linux环境下H ...

  2. (八)利用 Profile 构建不同环境的部署包

    接上回继续,项目开发好以后,通常要在多个环境部署,象我们公司多达5种环境:本机环境(local).(开发小组内自测的)开发环境(dev).(提供给测试团队的)测试环境(test).预发布环境(pre) ...

  3. WEB应用的常见安全漏洞

      01. SQL 注入 SQL 注入就是通过给 web 应用接口传入一些特殊字符,达到欺骗服务器执行恶意的 SQL 命令.SQL 注入漏洞属于后端的范畴,但前端也可做体验上的优化.原因:当使用外部不 ...

  4. 一篇文章教会你使用Python定时抓取微博评论

    [Part1--理论篇] 试想一个问题,如果我们要抓取某个微博大V微博的评论数据,应该怎么实现呢?最简单的做法就是找到微博评论数据接口,然后通过改变参数来获取最新数据并保存.首先从微博api寻找抓取评 ...

  5. C#基础——IO

    最近一直忙着做项目,偶尔会碰到一些文件读写方面的需求,当我回忆读写的代码时,发现脑子里存在诸多空白.这是不妙的,于是连忙翻出以前记下的笔记,上面还存在着我当初写下的知识点.怕以后哪天笔记找不到了或者有 ...

  6. OS_进程调度:C++实现

    实验二.进程调度模拟实验 一.实验目的: 本实验模拟在单处理机环境下的处理机调度,帮助理解进程调度的概念,深入了解进程控制块的功能,以及进程的创建.撤销和进程各个状态间的转换过程. 二.实验内容: 进 ...

  7. 搜索引擎ElasticSearch入门

    前言 最近项目上需要用到搜索引擎,由于之前自己没有了解过,所以整理了一下搜索引擎的相关概念知识. 正文 想查数据就免不了搜索,搜索就离不开搜索引擎,百度.谷歌都是一个非常庞大复杂的搜索引擎,他们几乎索 ...

  8. [ 头皮发麻 A1 ] 队内赛3 2020 Ateneo de Manila University DISCS PrO HS Division

    都是英语阅读题 但是本菜鸡就过了一题,直接自闭mmp明天开始起床一版题 传送门 B.Riana and the Blind Date 0是闰年?惊了 后来才知道整除被除数可以为0 闰年的计算方法 \( ...

  9. java程序员软件测试技巧

    测试是开发的一个非常重要的方面,可以在很大程度上决定一个应用程序的命运.良好的测试可以在早期捕获导致应用程序崩溃的问题,但较差的测试往往总是导致故障和停机. 测试是开发的一个非常重要的方面,可以在很大 ...

  10. DataFrame索引和切片

    import numpy as np import pandas as pd from pandas import DataFrame, Seriesdf = DataFrame(data=np.ra ...