微博的的模拟登陆是比较坑的,看了网上很多大神的帖子,自己又看了微博的登陆时的json数据:1、发现登陆时在输入账号时用chrome可以看到会有一个prelogin之类的网址,网址后面会有大串的随机数。我测试了下,发现在没有随机数的情况下的网址也能得到所需要的severtime、nonce、等几个数据。2、通过chrome查看json数据就可以看到用户名和密码的加密方式,再找了网上大神的资料就可以得到用户名su、和密码sp。再把数据post 上去就可以得到一个重定向的微博登陆网址。3、将这个网址用正则表达式提取出来,再带上cookie数据就可以登陆了。然后你想干什么就干什

# _*_coding:utf-8 _*_

import base64
import urllib
import urllib2
import re
import rsa
import cookielib class Weibo(object): def __init__(self, username, password):
self.user = base64.b64encode(username)
self.pwd = password @property
def get_pre_url_values(self):
values_dict = {}
su = self.user
pre_url = 'https://login.sina.com.cn/sso/prelogin.php?entry=weibo&callback=sinaSSOController.preloginCallBack&su=' \
+ str(su[:-1]) + '%3D&rsakt=mod&checkpin=1&client=ssologin.js(v1.4.18)'
header = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36'
} request = urllib2.Request(pre_url, headers=header)
html = urllib2.urlopen(request).read().decode('utf-8') p = re.compile(r'"servertime":(.*?),')
values_dict['servertime'] = p.search(html).group(1).strip('\"') p1 = re.compile(r'"pcid":(.*?),')
values_dict['pcid'] = p1.search(html).group(1).strip('\"') p2 = re.compile(r'"nonce":(.*?),')
values_dict['nonce'] = p2.search(html).group(1).strip('\"') p3 = re.compile(r'"pubkey":(.*?),')
values_dict['pubkey'] = p3.search(html).group(1).strip('\"') p4 = re.compile(r'"rsakv":(.*?),')
values_dict['rsakv'] = p4.search(html).group(1).strip('\"') return values_dict def get_password(self, blog_values):
'''
这个函数是微博的json数据和网上的大神方法的出来的(抄来的)^_^
''' rsapubkey = int(blog_values['pubkey'], 16)
key = rsa.PublicKey(rsapubkey, 65537)
massage = str(blog_values['servertime']) + '\t' + str(blog_values['nonce']) + '\n' + str(self.pwd)
password = rsa.encrypt(massage, key)
sp = password.encode('hex')
return sp def login_weibo(self, blog_values, sp): values = {
'entry': "weibo",
'gateway': '',
'from': '',
'savestate': '',
'userticket': '',
'pagerefer': "",
'cfrom': '',
'vsnf': '',
'su': self.user,
'service': 'miniblog',
'servertime': blog_values['servertime'],
'nonce': blog_values['nonce'],
'pwencode': 'rsa2',
'rsakv': blog_values['rsakv'],
'sp': sp,
'sr': "1440*900",
'encoding': 'UTF-8',
'prelt': '',
'url': 'http://weibo.com/ajaxlogin.php?framelogin=1&callback=parent.sinaSSOController.feedBackUrlCallBack',
'returntype': 'META'
} header = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36'
}
url = 'http://login.sina.com.cn/sso/login.php?client=ssologin.js(v1.4.18)' '''获取cookie信息 '''
cj = cookielib.CookieJar()
cj_support = urllib2.HTTPCookieProcessor(cj)
opener = urllib2.build_opener(cj_support) data = urllib.urlencode(values)
try:
response = urllib2.Request(url, headers=header, data=data)
html = opener.open(response).read().decode('gbk')
except Exception, e:
print e.message p = re.compile(r'location\.replace\(\'(.*?)\'\)')
url = p.search(html).group(1)
try:
url_request = urllib2.Request(url)
response_url = opener.open(url_request)
page = response_url.read().decode('utf-8')
p2 = re.compile(r'"userdomain":"(.*?)"')
dom = p2.search(page).group(1) login_url = 'http://weibo.com/' + dom
request_login_url = urllib2.Request(login_url)
response_login_url = opener.open(request_login_url)
per_html = response_login_url.read().decode('utf-8')
except Exception:
per_html = '登陆失败' return per_html if __name__ == '__main__': wbobj = Weibo('用户名', '密码')
sp = wbobj.get_password(wbobj.get_pre_url_values)
html = wbobj.login_weibo(blog_values=wbobj.get_pre_url_values, sp=sp)
print html

么,比如:把女神的照片全要了、自动查看女神的微博并将邮件发给你,下次再来弄这个。最近失眠的厉害,快点找到工作吧!!

python-微博模拟登陆的更多相关文章

  1. Python实现模拟登陆

    大家经常会用Python进行数据挖掘的说,但是有些网站是需要登陆才能看到内容的,那怎么用Python实现模拟登陆呢?其实网路上关于这方面的描述很多,不过前些日子遇到了一个需要cookie才能登陆的网站 ...

  2. 【小白学爬虫连载(10)】–如何用Python实现模拟登陆网站

    Python如何实现模拟登陆爬取Python实现模拟登陆的方式简单来说有三种:一.采用post请求提交表单的方式实现.二.利用浏览器登陆网站记录登陆成功后的cookies,采用get的请求方式,传入c ...

  3. python爬虫模拟登陆

    python爬虫模拟登陆 学习了:https://www.cnblogs.com/chenxiaohan/p/7654667.html  用的这个 学习了:https://www.cnblogs.co ...

  4. Python 爬虫模拟登陆知乎

    在之前写过一篇使用python爬虫爬取电影天堂资源的博客,重点是如何解析页面和提高爬虫的效率.由于电影天堂上的资源获取权限是所有人都一样的,所以不需要进行登录验证操作,写完那篇文章后又花了些时间研究了 ...

  5. 腾讯微博模拟登陆+数据抓取(java实现)

    不多说,贴出相关代码. 参数实体: package token.def; import java.io.Serializable; import java.util.Properties; publi ...

  6. python爬虫 模拟登陆校园网-初级

    最近跟同学学习爬虫的时候看到网上有个帖子,好像是山大校园网不稳定,用py做了个模拟登陆很有趣,于是我走上了一条不归路..... 先上一张校园网截图 首先弄清一下模拟登陆的原理: 1:服务器判定浏览器登 ...

  7. Python作业模拟登陆(第一周)

    模拟登陆:1. 用户输入帐号密码进行登陆2. 用户信息保存在文件内3. 用户密码输入错误三次后锁定用户 思路: 1. 用户名密码文件为passwd,锁定用户文件为lock 2. 用户输入账号密码采用i ...

  8. python+requests模拟登陆 学校选课系统

    最近学校让我们选课,每天都有不同的课需要选....然后突发奇想试试用python爬学校选课系统的课程信息 先把自己的浏览器缓存清空,然后在登陆界面按f12 如图: 可以看到登陆时候是需要验证码的,验证 ...

  9. python selenium模拟登陆163邮箱。

    selenium是可以模拟浏览器操作. 有些爬虫是异步加载的,通过爬取网页源码是得不到需要的内容.所以可以模拟浏览器去登陆该网站进行爬取操作. 需要安装selenium通过pip install xx ...

  10. Python脚本模拟登陆DVWA

    目录 requests模拟登陆 Selenium自动化测试登陆 环境:python3.7 windows requests模拟登陆 我们登陆DVWA的时候,看似只有一步:访问网站,输入用户名和密码,登 ...

随机推荐

  1. EnterpriseLibrary 6.0(微软企业库6.0学习笔记) 之Data Access Block 配置和获取链接字符串

    EnterpriseLibrary 的特点是快速开发,融合了微软工程师多年的经验,现在在微软内部有专门的一个小组在完善EnterpriseLibray,最近的更新时间是April 2013. 相关链接 ...

  2. css-缩写

    border缩写 /*缩写前*/ element{ border-top-width:1px; border-top-style:solid; border-top-color:#cccccc; } ...

  3. Summation of Four Primes - PC110705

    欢迎访问我的新博客:http://www.milkcu.com/blog/ 原文地址:http://www.milkcu.com/blog/archives/uva10168.html 原创:Summ ...

  4. iOS基础 - 控制器管理

    一.Container 一个iOS的app很少只由一个ViewController组成,除非这个app极其简单.当app中有多个ViewController的时候,我们就需要对这些ViewContro ...

  5. c# in deep 之LINQ简介(1)

    前两天公司进了一批书,在借阅jon skeet的c# in deep收获颇大,本书特点是介绍了不同版本的c#所增加的新特性.今天先写一下书中对linq的描述. 很多初学者在使用VS2010或2013写 ...

  6. Event notifications

    SQL Server 事件通知(Event notifications) 2013-12-13 17:21 by 听风吹雨, 333 阅读, 3 评论, 收藏, 编辑 一. 背景 SQL Server ...

  7. VIJOS1107 求树的最长链

    vijos1107环游大同80天 学习了一下求树的最长链的方法 最简单的思路就是两次dfs 两次dfs分别有什么用呢? 第一次dfs,求出某个任意的点能到达的最远的点 第二次dfs,从所搜到的最远的点 ...

  8. 记一次有趣的互联网事件及console.log~

    寂寞的中国互联网又一次瘫痪了. 说是顶级域的根挂了,不知道是黑客还是某个实习生干挂的. 反正到现在还没有人来解释这件事. 先普及一下,为什么顶级域的根挂了全中国都挂了. 那是因为dns解析的特点是递归 ...

  9. SSH整合之_架构的历史序列图

    只用jsp最原始的架构 jsp+DB的2层架构 jsp+DB+_Entity的2层架构 jsp+DB+_Entity3_+Service的三层架构 jsp+DB+_Entity3_+Service_H ...

  10. javascript生成自定义的arcgis simpletoolbar

    javascript生成自定义的arcgis simpletoolbar 最近在学习ARCGIS for Javascript过程中,在ESRI的在线帮助上看见了这样一个示例,查看源码后,觉得左侧工具 ...