一.问题分析 一般来说安卓的APP端测试分为两个部分,一个是对APK包层面的检测,如apk本身是否加壳.源代码本身是否有恶意内嵌广告等的测试,另一个就是通过在本地架设代理服务器来抓取app的包分析是否存在漏洞.而通常使用最广泛的工具burpsuite对于采用http协议开发的app来说是可以抓包的,但是如果app采用了SSL或TLS加密传输的话,由于证书不被信任的关系将会导致无法抓包.解决方法就是在移动终端中装入burpsuite证书. 二.证书配置 1. PC端配置浏览器与burpsuite的…
之前一篇文章介绍了Burpsuite如何抓取使用了SSL或TLS传输的Android App流量,那么IOS中APP如何抓取HTTPS流量呢, 套路基本上与android相同,唯一不同的是将证书导入ios设备的过程中有些出路,下面进行详细介绍. 以抓包工具burpsuite为例,如果要想burpsuite能抓取IOS设备上的HTTPS流量首先是要将burpsuite的证书导入到ios设备中, burpsuite的证书如何获取并保存在本地pc上请参考here. burpsuite的证书拿到了后就要…
上篇文章介绍了Burpsuite如何抓取使用了SSL或TLS传输的Android App流量, 那么使用Fiddler的时候其实 也会出现与burpsuite同样的情况,解决方案同样是需要将Fiddler证书导入到移动设备中,下文中介绍了Fiddler的 证书导出过程,导入到移动设备的步骤请参考Burp导入的操作即可. Fiddler证书导出…
1. Charles抓取兔儿故事背景介绍 之前已经安装了Charles,接下来我将用两篇博客简单写一下关于Charles的使用,今天抓取一下兔儿故事里面关于小猪佩奇的故事. 爬虫编写起来核心的重点是分析到链接,只要把链接分析到,剩下的就好办了. 2. 待爬取APP链接分析 夜神模拟器安装APP完毕,之后打开相应的软件,进去到小猪佩奇的分类清单,注意Charles,在里面尽量的去找到下图的链接,说白了就是在APP翻来翻去,看Charles的变化. 在分析中得到如下链接 http://api.tue…
1 引言 在编写网络爬虫时,第一步(也是极为关键一步)就是对网络的请求(request)和回复(response)进行分析,寻找其中的规律,然后才能通过网络爬虫进行模拟.浏览器大多也自带有调试工具可以进行抓包分析,但是浏览器自带的工具比较轻量,复杂的抓包并不支持.且有时候需要编写手机APP爬虫,这时候就必须需要用到其他的专业抓包工具,例如本篇介绍的Fiddler. 2 Fiddler简介 Fiddler是位于客户端和服务器端的HTTP代理,也是目前最常用的http抓包工具之一,它能够记录客户端和…
1.设置BurpSuite监听策略(和电脑区别不大就简单写了) 打开BurpSuite进入Proxy-Options界面,修改端口为8082.地址为第二项所有接口,点击OK 2.设置手机代理 首先保证手机和电脑用的是同一个WIFI,然后点击WIFI后面的详情,进行设置 进入WIFI详情界面,点击代理 代理选择手动 进入设置页面,填写电脑本机IP以及刚刚设置的端口号8082 查看电脑IP,使用Win+R,在cmd窗口输入ipconfig,设置完成后保存 3.给手机安装CA证书 打开浏览器输入htt…
安装requests的方法:sudo pip install requests 当碰到requests链接https的时候报SSL错误的时候使用如下解决: 1:将python的pip 版本升级到9.0.3以上.然后运行安装request的秘钥认证就可以了:pip install requests[security](亲测好使) 2:import requests.packages.urllib3.util.ssl_  requests.packages.urllib3.util.ssl_.DEF…
Charles是一款非常好用的抓包工具,通常使用它来进行APP开发抓包调试,尤其是HTTPS请求. 一.安装Charles 去官网(https://www.charlesproxy.com/)下载软件并安装. 安装完毕后,开启系统代理(本测试在windows环境进行),菜单->Proxy->Windows Proxy前面打钩,就开启了windows系统代理,可以看到系统的http请求. windows检测是否开启系统代理,IE->工具->Internet 选项->连接->…
Python爬虫工程师必学——App数据抓取实战 (一个人学习或许会很枯燥,但是寻找更多志同道合的朋友一起,学习将会变得更加有意义✌✌) 爬虫分为几大方向,WEB网页数据抓取.APP数据抓取.软件系统数据抓取 如何用python实现App数据抓取,从开发环境搭建,App爬虫必备利器详解,项目实战,到最后的多App端数据抓取项目集成,让你掌握App数据抓取的技能,向更优秀的python爬虫工程师迈进! 第1章 课程介绍 介绍课程目标.通过课程能学习到的内容.学会这些技能能做什么,对公司业务有哪些帮…
之前做Web项目的时候,经常会使用Fiddler(Windows下).Charles Proxy(Mac下)来抓包,调试一些东西:现在搞Android App开发,有时候也需要分析手机App的网络请求,包括参数.返回值等.在Mac上也是可以继续使用Charles Proxy来抓Android App发出的网络包的,大概的几个步骤: 1.保证手机和Mac连接的是同一个无线局域网 2.在Mac上打开Charles Proxy,菜单栏操作:Proxy→Proxy Setting,检查端口,一般保持默认…
昨天面试,技术官问到了我如何使用BurpSuite抓取https网站的数据包,一时间没能回答上来(尴尬!).因为以前https网站的数据包我都是用Fiddler抓取的,Fiddlert自动帮我们配置好了证书,所以就没用BurpSuite抓取过,今天特意去学习了下如何使用BurpSuite抓取https网站的数据包. 关于HTTPS协议中证书的认证过程,传送门-->HTTPS协议工作原理(SSL数字证书) BurpSuite之所以不能抓取https数据包,是因为BurpSuite作为中间人代理,我…
1.所需条件 · 手机已经获取root权限 · 手机已经成功安装xposed框架 · 电脑一台 2.详细步骤 2.1 在手机上面安装xposed JustTrustMe JustTrustMe是一个去掉https证书校验的xposed hook插件,去掉之后就可以抓取做了证书校验的app的数据包.JustTrustMe在github的地址位: https://github.com/Fuzion24/JustTrustMe 安装好模块之后勾选JustTrustMe模块,然后重启手机 2.2 配置b…
0x00 以前一直用的是火狐的autoproxy代理插件配合burpsuite抓包 但是最近经常碰到开了代理却抓不到包的情况 就换了Chrome的SwitchyOmega插件抓包 但是火狐不能抓包的问题一直很纠结 今天早上看了一下文章 终于解决了这个问题 0x01 环境配置 burpsuite 1.7.11 firefox    54.0.1(32位) 0x02 1.firefox代理设置 不用下载别的插件 就用火狐本身的代理设置 选项 --->  高级 --->网络 这样配置就好了 默认的不…
一定要按照步骤来,先导入burp初始证书到服务器,这时候初始证书是未验证的,然后导出为crt/cer文件(可能拼写错误,总之是正规证书后缀),再导入到机构. 要代理所有类型包括ssl的才能正常导入机构以及抓取https包.…
出现了问题,第一步要干什么呢? 当然是要去官方网站去找FAQ和help,先来练习一下英语 https://portswigger.net/burp/help/proxy_options_installingCAcert.html 注意思路,burp提供的是der格式的证书,必须得先导入到浏览器,然后从浏览器在导出cer格式的证书 测试环境 [+] JDK1.8.0_162 [+] Burp Suite 1.7.26 一.burp介绍 请自行参阅https://portswigger.net/bu…
0x00 以前一直用的是火狐的autoproxy代理插件配合burpsuite抓包 但是最近经常碰到开了代理却抓不到包的情况 就换了Chrome的SwitchyOmega插件抓包 但是火狐不能抓包的问题一直很纠结 今天早上看了一下文章 终于解决了这个问题 0x01 环境配置 burpsuite 1.7.11 firefox    54.0.1(32位) 0x02 1.firefox代理设置 不用下载别的插件 就用火狐本身的代理设置 选项 --->  高级 --->网络 这样配置就好了 默认的不…
使用Burp对安卓应用进行渗透测试的过程中,有时候会遇到某些流量无法拦截的情况,这些流量可能不是HTTP协议的,或者是“比较特殊”的HTTP协议(以下统称非HTTP流量).遇到这种情况,大多数人会选择切换到Wireshark等抓包工具来分析.下面要介绍的,是给测试人员另一个选择——通过Burpsuite插件NoPE Proxy对非HTTP流量抓包分析,并可实现数据包截断修改.重放等功能. ## NoPE Proxy简介 NoPE Proxy插件为Burpsuite扩展了两个新的特性: 1. 一个…
一.搭建WordPress的cms网站管理系统 1,下载Wordpress cms源码,下载地址:https://wordpress.org/download/ 2,将源码解压到phpstudy目录下的WWW文件夹下 3,启动phpstudy的apache服务和mysql服务 4,打开打开phpmyadmin,进入Mysql数据库管理界面,点击数据库,创建名为wordpress的数据库 5,打开浏览器,访问127.0.0.1/wordpress,进入到wordpress的安装界面,首先选择语言,…
Burpsuite抓取https包 浏览器代理设置 Burpsuite代理设置 启动Burpsuite,浏览器访问127.0.0.1:8080,点击CA Certificate,下载cacert.der安全证书文件. 导入证书:Internet选项,内容,证书,选择受信任的证书颁发机构,导入刚刚下载的证书,选择文件时把右下角改为所有文件,直接下一步,选择是. 重启浏览器,可以看到PortSwigger CA,证书成功导入. 配置https代理,打开代理,尝试抓取https数据包. 成功抓取到ht…
python在抓取制定网站的错误提示:ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:1056) 解决方式:在使用请求方法时添加一个参数verify = false就行了,如下: response = self.lagou_session.get(url=url…
目标:burpsuite抓取微信小程序的数据包,而且该系统需指定DNS!否则无法访问! 大家都知道小程序是https传输的,所以手机端是需要安装burp证书的. 已忽略安装证书的步骤,可自己百度搜索,文章很多我就不班门弄斧了. 环境:夜神模拟器,burpsuite. 接网线,本地:192.168.234.240 试验:当不设置DNS时,系统界面,与抓到的数据包返回如下: 当前模拟器网络设置为: 开始设置***********************************************…
通过天天模拟器,代理抓取安卓app数据包.也可以抓取https. 1.下载天天模拟器,官方下载即可,下载安装. 2.启动天天模拟器,设置代理,点击上方wlan设置图标,打开wlan设置,如下: 3.鼠标点击已连接的ssid不放,长点击.点修改网络,打开设置,显示高级选项:然后设置代理为本地物理机的ip ,端口8080即可,burp默认端口. 4.修改burp监听,监听 0.0.0.0 的8080,就可以了. 注意:如果无法代理,可尝试关闭本地物理机的防火墙. 模拟器会有些莫名其妙的问题,建议采用…
准备工作 本次测试的Charles版本为3.9.1 · 首先在Charles中开启HTTP请求的远程监听. · 然后分别在手机和Mac上安装Charles的证书. 注意:证书一定要一致,否则抓取不到. 安装证书 Mac上安装证书 直接在Charles软件的Help菜单中选择Install Charles CA SSL ...项目 在Mac的钥匙串中,找到该证书,并修改为全部信任,然后导出该证书. 通过AirDrop将该证书发送到iPhone上,并进行安装. 结束 好了,可以愉快的抓取HTTPS的…
Charles可以正常抓取http数据包,但是如果没有经过进一步设置的话,无法正常抓取https的数据包,通常会出现乱码.举个例子,如果没有做更多设置,Charles抓取https://www.baidu.com的结果如下: 上图显示都是乱码,为了正常可以抓取到数据,我们需要通过以下配置: 抓包准备 安装Charles: 演示版本是4.0.2 手机设备:iphone 电脑系统:MAC 电脑下载证书 在Charles菜单栏中选择Help -> SSL-Proxying -> Install Ch…
我们经常会发现网页中的许多数据并不是写死在HTML中的,而是通过js动态载入的.所以也就引出了什么是动态数据的概念, 动态数据在这里指的是网页中由Javascript动态生成的页面内容,是在页面加载到浏览器后动态生成的,而之前并没有的. 在编写爬虫进行网页数据抓取的时候,经常会遇到这种需要动态加载数据的HTML网页,如果还是直接从网页上抓取那么将无法获得任何数据. 今天,我们就在这里简单聊一聊如何用python来抓取页面中的JS动态加载的数据. 给出一个网页:豆瓣电影排行榜,其中的所有电影信息都…
由于我之前抓取的某APP接口全面换上了https接口,导致我在抓取过程中遇到了很大的困境 用Charles无法获取到内容,由于现在已经搞定了,无法展示当时的错误信息,我从网站找了一个类似的错误信息 首先点击https接口,Resquest和Response全部都是乱码,然后有类似于这样的提示: 当然我抓的不是这个,我从网上找的 想要解决这个问题需要几部 1.Charles设置 注意:由于Charles版本不同,可能过程略有不同,我的版本是3.11.4 1.1 Help --> SSL Proxy…
最近想尝试基于Fiddler的录制功能做一些接口的获取和处理工作,碰到的一个问题就是简单连接Fiddler只能抓取HTTP协议,关键的登录请求等HTTPS协议都没有捕捉到,所以想让Fiddler能够同时抓取到HTTPS和HTTP协议,设置只是很小的一步,关键是了解HTTPS协议的原理.Fiddler抓取HTTPS协议的原理,然后才能更好的理解如何进行设置.本文主要由三部分组成,第一部分用比较通俗形象的方式简述了HTTPS的原理,第二部分则是在第一部分的基础上介绍Fiddler抓取HTTPS协议的…
英文原文:Build a Website Crawler based upon Scrapy 标签: Scrapy Python 209人收藏此文章, 我要收藏renwofei423 推荐于 11个月前 (共 9 段, 翻译完成于 12-30) (14评)  参与翻译(3人): LeoXu, BoydWang, Garfielt 仅中文 | 中英文对照 | 仅英文 | 打印此文章 Scrapy是一个用于爬行网站以及在数据挖掘.信息处理和历史档案等大量应用范围内抽取结构化数据的应用程序框架,广泛用…
一.使用的技术 这个爬虫是近半个月前学习爬虫技术的一个小例子,比较简单,怕时间久了会忘,这里简单总结一下.主要用到的外部Jar包有HttpClient4.3.4,HtmlParser2.1,使用的开发工具(IDE)为intelij 13.1,Jar包管理工具为Maven,不习惯用intelij的同学,也可以使用eclipse新建一个项目. 二.爬虫基本知识 1.什么是网络爬虫?(爬虫的基本原理) 网络爬虫,拆开来讲,网络即指互联网,互联网就像一个蜘蛛网一样,爬虫就像是蜘蛛一样可以到处爬来爬去,把…
通过curl_setopt()函数可以方便快捷的抓取网页(采集很方便),curl_setopt 是php的一个扩展库 使用条件:需要在php.ini 中配置开启.(PHP 4 >= 4.0.2)       //取消下面的注释 extension=php_curl.dll 在Linux下面,需要重新编译PHP了,编译时,你需要打开编译参数——在configure命令上加上“–with-curl” 参数. 1. 一个抓取网页的简单案例: // 创建一个新cURL资源 $ch = curl_init…