有时我们在做精准营销时,需要从社群里提取群成员的QQ号,群发邮件,常规的做法是手工一个个复制粘贴,这样的效率无疑是很低的,下面我来分享一个批量获取社群的QQ号方法。

需要具备以下工具:

1、大量精准QQ群

2、Fiddler抓包工具

3、QQ号批量提取工具

1、大量精准的QQ群

QQ群,大家可以根据自己的营销行业去搜索目标群。
随便加几个2000人的群就过万了。
例如:我要查找“家具”行业的,一搜索一大堆。

2、Fiddler抓包工具

下载地址:https://www.telerik.com/download/fiddler
如果没有这方面的工具,我们是无法取得QQ号的,因为我们不知道QQ成员的获取地址。

使用Fiddler工具:

具体的安装过程这里就不再详细说了,安装过程大家可以百度一下。
运行Fiddler:

这里要设置一下,HOST过滤,因为太多请求了,要不然看不过来。

启用代理,因为都是通过代理的模式去抓包的。

点击刚刚加入的QQ群,开始抓包,如图:

Fiddler会显示相关请求页面的过程,包括请求的数据和服务端相应的数据,如下图:

点击红色的框框请求的地址,就是获取QQ群成员的地址,如图返回的JSON数据:

其中members就是群的QQ成员号码。点击Raw(原始数据)可以看到JSON数据:

复制这段JSON数据,然后使用工具提取,提取号码的工具需要自己开发,我这里就已C#为例写了主要的代码:

 [TestClass]
public class UnitTest1
{
[TestMethod]
public void TestMethod1()
{
string[] files = Directory.GetFiles(@"E:\test\test1\UnitTestProject1\qq");
string outputFile = @"E:\test\test1\UnitTestProject1\qq\outputs\output.txt"; foreach (var path in files)
{
PickQQ(path, outputFile);
}
} private static void PickQQ(string inputPath,string outputPath)
{
StreamReader reader = new StreamReader(inputPath);
StreamWriter writer = new StreamWriter(outputPath,true); string content = reader.ReadToEnd();
var jObj = (JObject)JsonConvert.DeserializeObject(content);
var jObjMembers = (JObject)jObj["members"];
foreach (var item in jObjMembers)
{
writer.WriteLine(item.Key);
} writer.Close();
writer.Dispose(); reader.Close();
reader.Dispose();
}
}

这样就完成了提取过程,多个QQ群提取,原理一样,先将JSON数据抓出来,然后写代码实现提取。本次的QQ群成员提取就写到这里,今后将会为大家献上更精彩的案例。

来个趣味题,大家放松放松:

精准营销、批量提取QQ群成员号码的更多相关文章

  1. 关于一键提取QQ群成员信息的记录

    问题情境 昨天晚上回宿舍看到舍友在吐槽:天哪,我要把70多个人的QQ号全统计出来,只能一个一个地在咱们学院的学院群里找.吐了. 当时我第一反应是用python写个脚本之类的去做,因此查阅了一下资料,找 ...

  2. QQ群成员发言次数统计(正则表达式版)

    1.先将QQ群的消息记录以.txt文件格式导出来,保存路径及名称自己定义(在本文我导出到Y盘,命名为test.txt) 2.程序如下: data statistics1; if _n_=1 then ...

  3. 9 行 javascript 代码获取 QQ 群成员

    昨天看到一条微博:「22 行 JavaScript 代码实现 QQ 群成员提取器」. 本着好奇心点击进去,发现没有达到效果,一是 QQ 版本升级了,二是博客里面的代码也有些繁琐. 于是自己试着写了一个 ...

  4. QQ群成员发言次数统计(词云制作)

    所用数据来自于之前的一篇博客: <QQ群成员发言次数统计(正则表达式版)> 链接:http://www.cnblogs.com/liyongzhao/p/3324026.html 1.首先 ...

  5. 利用Python获取统计自己的qq群成员信息

    利用python获取自己的qq群成员信息! 首先说明一下需要使用的工具以及技术:python3 + selenium selenium安装方法:pip install selenium 前提:获取自己 ...

  6. 利用python获取自己的qq群成员信息

    利用python获取自己的qq群成员信息! 首先说明一下需要使用的工具以及技术:python3 + selenium selenium安装方法:pip install selenium 前提:获取自己 ...

  7. PHP获取QQ群成员QQ号码

    .加入某个群 .进入群空间http://qun.qzone.qq.com/group#!/25998059/member 备注:25998059为群号码 .进入群成员列表 .使用浏览,在某个群成员头像 ...

  8. 火车头采集器如何采集QQ群成员中的QQ号

    如何采集QQ群群员QQ号,采集QQ号,批量采集QQ号 众所周知,QQ群群员QQ号无法导出,即使会员也不可以,那我们只能通过三方工具来实现我们的要求,那今天我们讲讲如何通过火车采集器来采集QQ群群员QQ ...

  9. 【淘宝客】批量提取QQ号

    1:打开QQ群官方,网址:http://qun.qq.com/ 2.点击导航栏:群管理 3.点击成员管理,选择需要提取QQ号的群 4.全选复制群成员 5.打开网址:http://tool.oschin ...

随机推荐

  1. Solr配置文件 schema.xml

    1 添加自己的分词器(mmseg4j) 意思是textCommplex 这个类型,用的是 com.chenlb.mmseg4j.solr.MMSegTokenizerFactory 这个分词器,词库是 ...

  2. 多语言应用性能监控系统:Elastic APM

    ▶ 概述 Elastic APM 是基于 Elastic Stack 构建的应用性能监控系统.通过 Elastic APM 可以监控应用程序,收集有关请求的响应时间.数据库查询.高速缓存调用.外部 H ...

  3. kali Linux渗透测试技术详解

    kali Linux渗透测试技术详解 下载:https://pan.baidu.com/s/1g7dTFfzFRtPDmMiEsrZDkQ 提取码:p23d <Kali Linux渗透测试技术详 ...

  4. Java 垃圾收集总结

    概述 垃圾收集(Garbage Collection,GC),它不是Java语言的伴生产物,它的历史比Java还要久远. 人们主要思考GC需要完成的3件事情: 哪些内存需要回收? 什么时候回收? 如何 ...

  5. Redis 使用C#程序操作Redis

    一.安装操作所需Nuget包 二.写入 redis只是按Key值设置过期时间,不是对value内部的某些值设过期 2.1 string类型 /// <summary> /// 向Redis ...

  6. .Net微信网页开发之JSSDK使用步骤和配置信息timestamp(时间戳),nonceStr(随机串),signature(签名),access_token(接口调用凭据)的生成获取讲解

    前言: 因为接下来会有几篇关于微信JS-SDK功能使用的文章,主要会对微信分享,获取设备信息,获取地理位置,微信扫一扫这几个功能进行讲解.而这几个功能都是围绕着微信JS-SDK实现的,首先使用微信JS ...

  7. 20131209-数据库导入导出数据-sqlhelper-第十七天

    [1] 导出数据 namespace _05导出数据 { class Program { static void Main(string[] args) { string str = "Da ...

  8. Python解释器安装教程以及环境变量配置 以及 pycharm的安装与激活

    计算机的组成 主板:人的骨架,用于拓展设备 CPU:人的大脑,用于计算和逻辑处理 硬盘:存储数据(永久储存),比如电脑上的 C盘,D盘 内存:临时记忆(断电即消失) 操作系统:XP win7 win1 ...

  9. SQLite的一些体会

    SQLite遵循sql语法,所以如果接触过数据库,使用它进行增删改查几乎没障碍.在.net中,它与Mysql.sql server的类也相似,比如连接类名字是SQLiteConnection,不过它S ...

  10. 看MySQL的参数调优及数据库锁实践有这一篇足够了

    史上最强MySQL参数调优及数据库锁实践 1. 应用优化 1.2 减少对MySQL的访问 1.2.1 避免对数据进行重复检索 1.2.2 增加cache层 1.3 负载均衡 1.3.1 利用MySQL ...