简介:

这里是利用了selenium+图片识别验证,来实现12306的模拟登录,中间也参考了好几个项目,实现了这个小demo,中间也遇到了很多的坑,主要难点在于图片识别和滑动验证这两个方面,图片识别是利用超级鹰的服务进行验证识别的,其次一个难点就是在账户密码和图片识别都过了以后的滑动验证,因为12306网站做了反爬,利用selenium滑动时,会报错,提示你一直刷新,这里也是更改了滑动框。

技术栈:

python、selenium、图片验证、滑动验证

思路:

提前卧槽,12306网站的并发真的牛逼。

在模拟登录的时候,第一个难点就是图片验证,这里不会底层的算法,只能通过图片识别平台的api接口服务进行解密,返回验证坐标以后,通过selenium的点击动能,进行点击,在这里提前说明一下,网上有很多项目在实例化浏览器时,需要调整桌面分辨率,然后最大化窗口,这样截屏才不会出现截不全的情况,我这边是比较省事的,直接用xpath定位到验证码的png文件。直接写入到本地,然后传到图片识别平台进行识别。

里面涉及了一些selenium的方法,我基本上都是现查现用,比如按住鼠标不放、按左键什么的。

具体的代码和注解贴在下面,

from selenium import webdriver
from hashlib import md5
import requests
import time
from selenium.webdriver import ActionChains #  这个类是超级鹰平台写的调用服务的接口代码,也是比较容易看懂的
class Chaojiying_Client(object):     def __init__(self, username, password, soft_id):
        self.username = username
        password =  password.encode('utf8')
        self.password = md5(password).hexdigest()
        self.soft_id = soft_id
        self.base_params = {
            'user': self.username,
            'pass2': self.password,
            'softid': self.soft_id,
        }
        self.headers = {
            'Connection': 'Keep-Alive',
            'User-Agent': 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0)',
        }     def PostPic(self, im, codetype):
        """
        im: 图片字节
        codetype: 题目类型 参考 http://www.chaojiying.com/price.html
        """
        params = {
            'codetype': codetype,
        }
        params.update(self.base_params)
        files = {'userfile': ('ccc.jpg', im)}
        r = requests.post('http://upload.chaojiying.net/Upload/Processing.php', data=params, files=files, headers=self.headers)
        return r.json()     def ReportError(self, im_id):
        """
        im_id:报错题目的图片ID
        """
        params = {
            'id': im_id,
        }
        params.update(self.base_params)
        r = requests.post('http://upload.chaojiying.net/Upload/ReportError.php', data=params, headers=self.headers)
        return r.json() #   这里进入模拟登录的主程序 # 实例化浏览器,并且最大化。然后请求12306主网站,我这里是从首页请求的,大家可以直接从登陆页面请求
browser = webdriver.Chrome()
browser.maximize_window()
browser.get('http://12306.cn/')
time.sleep(5)
# 因为是从首页请求的,所以下面有两个点击的动作,都是为了点进登陆页面
browser.find_element_by_xpath('//*[@id="J-header-login"]/a[1]').click()
time.sleep(0.3)
# 这里比较重要了,这里就是利用这个代码,来更改selenium中的滑动功能,让网站不报错
script = 'Object.defineProperty(navigator,"webdriver",{get:()=>undefined,});'
browser.execute_script(script)
time.sleep(1)
# 这里进入帐号登录
browser.find_element_by_xpath('/html/body/div[2]/div[2]/ul/li[2]/a').click()
time.sleep(0.3)
#  这里直接定位验证码的png文件,然后保存
img = browser.find_element_by_xpath('//*[@id="J-loginImg"]')
img.screenshot('cde.png')
# 调用超级鹰的参数
chaojiying = Chaojiying_Client('用户名', '密码', 'ID')#  这个在超级鹰的实例代码中有解释
im = open('../12306/cde.png', 'rb').read()
# 注意,这里返回的是一个字典格式,所以直接取要用的key,来返回坐标
result = chaojiying.PostPic(im, 9004)['pic_str']
print(result)
# 这里就是处理超级鹰返回坐标的方法了
all_list = []
# 通过判断超级鹰返回坐标的格式进行坐标处理,
# 返回的坐标有两种形式,一种是以|隔开的,一种是用,隔开的,对应下面两种处理方式
# 处理好的坐标存入list
if '|' in result:
    list = result.split('|')
    for i in range(len(list)):
        x_y = []
        x = int(list[i].split(',')[0])
        y = int(list[i].split(',')[1])
        x_y.append(x)
        x_y.append(y)
        all_list.append(x_y)
else:
    x_y = []
    x = int(result.split(',')[0])
    y = int(result.split(',')[1])
    x_y.append(x)
    x_y.append(y)
    all_list.append(x_y)
print(all_list) # 处理好的坐标进行循环,并带入selenium进行点击点击
for l in all_list:
    x = l[0]
    y = l[1]
    ActionChains(browser).move_to_element_with_offset(
        img, x, y).click().perform()
    time.sleep(0.5)
# 图片点击好以后,向表单内发送账户密码
browser.find_element_by_xpath('//*[@id="J-userName"]').send_keys('账号')
browser.find_element_by_xpath('//*[@id="J-password"]').send_keys('密码')
# 进行点击登录按钮
browser.find_element_by_xpath('//*[@id="J-login"]').click()
time.sleep(2)
# 下面就是滑动模块了
# 上面已经更改过selenium的滑动模块,所以这里就可以直接定位到按钮的位置,进行点击滑动
span = browser.find_element_by_xpath('//*[@id="nc_1_n1z"]')
action = ActionChains(browser)
# 这里是selenium的方法,按住点击不放
action.click_and_hold(span)
# 下面就是滑动了
action.drag_and_drop_by_offset(span,400,0).perform()
# 这里加了个循环,就是滑动不行,一直刷新继续滑动,直到成功
# 其实这里也只是为了保险起见,因为上面改了滑动框,基本上都会成功
while True:
    try:
        info=browser.find_element_by_xpath('//*[@id="J-slide-passcode"]/div/span').text
        print(info)
        if info=='哎呀,出错了,点击刷新再来一次':
            #点击刷新
            browser.find_element_by_xpath('//*[@id="J-slide-passcode"]/div/span/a').click()
            time.sleep(0.2)
            #重新移动滑块
            span = browser.find_element_by_xpath('//*[@id="nc_1_n1z"]')
            action = ActionChains(browser)
            # 点击长按指定的标签
            action.click_and_hold(span).perform()
            action.drag_and_drop_by_offset(span, 400, 0).perform()
            time.sleep(5)
    except:
        print('ok!')
        break
# 完成后,松开鼠标
action.release() time.sleep(5)
# 退出
browser.quit()

最后想说的是

实现抢票的事,这个我还暂时没想好怎么去做

平时工作比较忙

所以以后实现这个功能吧

拜拜~

4、python+selenium实现12306模拟登录的更多相关文章

  1. python之简单POST模拟登录

    宿舍自从换了校园网的认证系统就不再用客户端了,只能在网页登录.每次上网都要打开浏览器的话很不方便,而且我有时在ubuntu控制台上想联网但终端文本浏览器似乎不支持页面跳转,既然如此,何不写个客户端呢? ...

  2. Python手动构造Cookie模拟登录后获取网站页面内容

    最近有个好友让我帮忙爬取个小说,这个小说是前三十章直接可读,后面章节需要充值VIP可见.所以就需要利用VIP账户登录后,构造Cookie,再用Python的获取每章节的url,得到内容后再使用 PyQ ...

  3. python之cookie, cookiejar 模拟登录绕过验证

    0.思路 如果懒得模拟登录,或者模拟登录过于复杂(多步交互或复杂验证码)则人工登录后手动复制cookie(或者代码读取浏览器cookie),缺点是容易过期. 如果登录是简单的提交表单,代码第一步模拟登 ...

  4. 《转载》python爬虫实践之模拟登录

    有些网站设置了权限,只有在登录了之后才能爬取网站的内容,如何模拟登录,目前的方法主要是利用浏览器cookie模拟登录.   浏览器访问服务器的过程   在用户访问网页时,不论是通过URL输入域名或IP ...

  5. python自动化之爬虫模拟登录

    http://selenium-python.readthedocs.io/locating-elements.html ####################################### ...

  6. Python 爬虫实战5 模拟登录淘宝并获取所有订单

    经过多次尝试,模拟登录淘宝终于成功了,实在是不容易,淘宝的登录加密和验证太复杂了,煞费苦心,在此写出来和大家一起分享,希望大家支持. 本篇内容 python模拟登录淘宝网页 获取登录用户的所有订单详情 ...

  7. 在Python中用Request库模拟登录(四):哔哩哔哩(有加密,有验证码)

    !已失效! 抓包分析 获取验证码 获取加密公钥 其中hash是变化的,公钥key不变 登录 其中用户名没有被加密,密码被加密. 因为在获取公钥的时候同时返回了一个hash值,推测此hash值与密码加密 ...

  8. 在Python中用Request库模拟登录(三):Discuz论坛(未加密,有验证码,有隐藏验证)

    以Discuz的官方站为例.直接点击网页右上角的登录按钮,会弹出一个带验证码的登录窗口.输入验证码之后,会检查验证码是否正确.然后登录.首先,通过抓包分析,这些过程浏览器和服务器交换了哪些数据. 抓包 ...

  9. 在Python中用Request库模拟登录(一):字幕库(无加密,无验证码)

    字幕库的登录表单如下所示,其中省去了无关紧要的内容: <form class="login-form" action="/User/login.html" ...

随机推荐

  1. 2020-2021-1 20209307《Linux内核原理与分析》第四周作业

    一.Linux内核源代码简介 1.计算机三大法宝 存储程序计算机 函数调用堆栈 中断机制 2.操作系统两把宝剑 中断上下文的切换 进程上下文的切换 3.函数目录 Linux-3.18.6/arch/x ...

  2. js下 Day18、综合案例

    一.分页 效果图: 功能思路分析: 分页就是将所有的数据按指定条数分成若干份: 假如有24条数据,每页只显示5条,则需要分成Math.ceil(24 / 5) = 5页; 每次只显示1页数据,所以需要 ...

  3. js下 Day10、尺寸位置属性

    一.元素尺寸信息 元素.offsetWidth: 元素的外宽高 width + padding + border 元素.offsetHeight: 元素的外宽高 height + padding + ...

  4. python监控文件实时批量压缩脚本

    # coding:utf-8 from shutil import make_archive import os import time # 指定需要监测的文件夹 image_path = './im ...

  5. 工具-Redis-使用(99.6.2)

    @ 目录 1.启动 2.数据结构 3.String命令 4.其他常用命令 5.Hash命令 6.List命令 7.Set命令 8.Zset命令 关于作者 1.启动 redis-server 交互 re ...

  6. IIS添加应用程序和虚拟目录

    右键添加应用程序 别名就是虚拟路径 比如本来路径是http://localhost:44336/main.html    别名为  qwer  那么就可以访问http://localhost:4433 ...

  7. C#的TimeSpan

    前言 参考 TimeSpan介绍: https://blog.csdn.net/weixin_41600552/article/details/82220645 微软文档: https://docs. ...

  8. 简单介绍下各种 JavaScript 解析器

    作者:沧海 各种js解析器是前端工程化的基石,可以说如果没有它,很多工程化都无法正常执行,我们每天用到的babel.webpack.eslint.TypeScript背后都需要一套对应的js解析器,今 ...

  9. easyui中权限分配和添加 前后端代码

    <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding= ...

  10. java文本获取

    public static String Html2Text(String inputString) {         String htmlStr = inputString; // 含html标 ...