SRC之信息收集

前言:

​ 关于SRC信息收集不在于工具是否全面,工具固然重要,它们能帮我们节省大量的时间收集资产,但不是说我们一定要用到所有工具,收集到某个SRC的所有资产才罢休。资产总会有遗漏,关键是动手实践,动手开挖!

​ 下面推荐几个超级好用的信息收集工具,工具不多,但个个都是精品。

信息

收集流程(看个人):

​ 子域名 — 端口 — 框架和指纹 — 目录 — APP — 小程序 — 公众号

子域名收集工具:

  1. ARL:灯塔资产管理系统
  • ​ 官方定义:

​ 资产侦察灯塔系统。旨在快速侦察与目标关联的互联网资产,构建基础资产信息库。 协助甲方安全团队或者渗透测试人员有效侦察和检索资产,发现存在的薄弱点和攻击面。(必装!)

  • ​ 安装:

​ 不幸的是现在github上已经没有仓库了,看了网上很多的文章发现安装过程太过繁琐,还得本地拉取乱七八糟的,对我这种懒人简直折磨,这里推荐蚁景网安学院的Gitee仓库,一键安装,免去烦恼。

​ 链接:

https://gitee.com/yijingsec/LinuxEnvConfig.git

​ 安装也很简单,直接git克隆到自己的vps上即可(vps是centos系统的话会有问题,建议ubuntu)

git clone https://gitee.com/yijingsec/LinuxEnvConfig.git       #克隆到本地
cd LinuxEnvConfig #进入目录
sudo bash LinuxEnvConfig.sh #执行脚本

​ 启动之后输入8,按提示安装就好了

​ 安装好后按提示登录就好了,记得改密码,然后就可以愉快的使用了 _

  1. oneforall:资产收集神器,github上8.2k的收藏量
    • ​ github链接:

    https://github.com/shmilylty/OneForAll

    ​ 安装使用就不赘述了,毕竟最好的使用教程是官方文档,这里列两个常用命令:

    python3 oneforall.py --target example.com run           #单个根域名,如baidu.com
    python3 oneforall.py --targets ./example.txt run #批量根域名,example.txt在同级目录
    • ​ 注意:一定要配置api.py这个文件,可以调用很多资产测绘工具辅助查找

    ​ windows下:OneForAll-master ---> config ---> api.py

    ​ linux同理

  2. subfinfer:只为子域名枚举的神器,10k收藏量
    • ​ github链接:

    https://github.com/projectdiscovery/subfinder

    ​ 最好的使用教程是官方文档(真不是我懒) _

  3. 网络空间测绘搜索引擎

端口收集

​ 在用工具进行信息收集时,经常看到网站URL后面跟着个端口号,如https://www.baidu.com:6666,这种时候就可以扫一下端口,看看是不是开了别的服务

namp: 业界冠军

​ 个人习惯用kali自带的,当然也可以去官网下载:https://nmap.org/

​ 参数老多,列几个常用命令:

nmap 目标ip                                          #基本扫描
nmap -p 443 目标ip #TCP端口扫描,扫443端口
nmap -p 100-1000 -sV 目标ip #TCP端口扫描,扫100-1000端口,-sV:显示服务信息
nmap -sU -O 目标ip #-sU:UDP端口扫描 -O:操作系统检测

​ 端口扫描工具用nmap足够了,功能强大 _

框架和指纹

  1. 识别网站框架推荐谷歌浏览器插件推荐wappalyzer,国外大牛都在用(点赞)

​ 官方链接:https://www.wappalyzer.com/

​ 谷歌浏览器安装直接应用商店搜索:

  1. 指纹识别推荐一个在线网站:http://finger.tidesec.net/

目录

​ 主要是扫网站目录,看看有没有敏感文件。

dirsearch:目录扫描神器,11.9k收藏

  • ​ github链接:

  • ​ 最好的使用教程是官方文档 _

APP,小程序,公众号

谷歌黑客语法

​ 推荐在线网站:https://pentest-tools.com/information-gathering/google-hacking

​ 免去自己手动输入语法,点点点就行了

总结:

​ 网上的信息收集工具实在太多了,导致很多人就纠结:这个工具好不好,收集的全不全,既要又要,最后硬生生卡挖SRC第一步。本文推荐的工具不多,但都是经过时间的严格检验和很多大佬的认可,还是那句话:工具不是重点,动手才是!!!

​ 最后建议专门在浏览器建一个信息收集的书签,以后方便查找。

国内SRC信息收集的更多相关文章

  1. 菜鸡试飞----SRCの信息收集手册

    whois信息 微步在线 https://x.threatbook.cn/ 站长之家 http://whois.chinaz.com/ dns信息-----检测是否存在dns域传送漏洞 子域名的收集 ...

  2. src挖掘过程之信息收集

    信息收集 1.厂商域名   2.厂商ip段   3.厂商业务信息 域名收集 1.基于SSL证书查询   2.第三方网站接口查询   3.Github   4.DNS解析记录   5.子域名枚举等 基于 ...

  3. 信息收集&Fuzz

    本文译自https://0xjoyghosh.medium.com/information-gathering-scanning-for-sensitive-information-reloaded- ...

  4. Kali Linux信息收集工具

    http://www.freebuf.com/column/150118.html 可能大部分渗透测试者都想成为网络空间的007,而我个人的目标却是成为Q先生! 看过007系列电影的朋友,应该都还记得 ...

  5. python 信息收集器和CMS识别脚本

    前言: 信息收集是渗透测试重要的一部分 这次我总结了前几次写的经验,将其 进化了一下 正文: 信息收集脚本的功能: 1.端口扫描 2.子域名挖掘 3.DNS查询 4.whois查询 5.旁站查询 CM ...

  6. 2017-2018-2 20155303『网络对抗技术』Exp6:信息收集与漏洞扫描

    2017-2018-2 20155303『网络对抗技术』 Exp6:信息收集与漏洞扫描 --------CONTENTS-------- 一.原理与实践说明 1.实践内容 2.基础问题 二.实践过程记 ...

  7. Kali Linux信息收集工具全集

    001:0trace.tcptraceroute.traceroute 描述:进行路径枚举时,传统基于ICMP协议的探测工具经常会受到屏蔽,造成探测结果不够全面的问题.与此相对基于TCP协议的探测,则 ...

  8. 被动信息收集1——DNS基础 + DNS解析工具 NSLOOKUP使用

    被动信息收集 特点: 基于公开渠道 与目标不直接接触 避免留下一切痕迹 标准參考--OSINT: 美国军方 北大西洋公约组织 名词解释 DNS--Domain Name System 域名系统 因特网 ...

  9. Kali Linux信息收集工具全

    可能大部分渗透测试者都想成为网络空间的007,而我个人的目标却是成为Q先生! 看过007系列电影的朋友,应该都还记得那个戏份不多但一直都在的Q先生(由于年级太长目前已经退休).他为007发明了众多神奇 ...

  10. MSF魔鬼训练营-3.1.1信息收集-通过DNS和IP地址挖掘目标网络信息

    情报搜集环境站渗透测试全过程的80%~90%   一.外围信息搜集(公开渠道信息搜集OSINT  open source intelligence) 3.1.1信息收集-通过DNS和IP地址挖掘目标网 ...

随机推荐

  1. 教程 | 使用 Apache SeaTunnel 同步本地文件到阿里云 OSS

    一直以来,大数据量一直是爆炸性增长,每天几十 TB 的数据增量已经非常常见,但云存储相对来说还是不便宜的.众多云上的大数据用户特别希望可以非常简单快速的将文件移动到更实惠的 S3.OSS 上进行保存, ...

  2. 7月新特性 | 软件开发生产线CodeArts发布多项新特性等你体验!

    华为云软件开发生产线CodeArts是一站式.全流程.安全可信的云原生DevSecOps平台,覆盖需求.开发.测试.部署.运维等软件交付全生命周期环节,为开发者打造全云化研发体验.2024年7月,Co ...

  3. Java IO 流详解

    概述 流是一个抽象的概念,代表了数据的无结构化传递.流的本质是数据在不同设备之间的传输.在 Java 中,数据的读取和写入都是以流的方式进行的 在 Java 中,根据数据流向的不同,可以将流分为输入( ...

  4. 手把手教你实现Scrapy-Redis分布式爬虫:从配置到最终运行的实战指南

    ## 1.scrapy-redis的环境准备 pip install scrapy-redis 安装完毕之后确保其可以正常导入使用即可. 2. 实现 接下来我们只需要简单的几步操作就可以实现分布式爬虫 ...

  5. 国内IT行业67家外包公司,有多少程序员在里面待过?

    之前写过一篇关于外包公司的文章, <什么是软件外包公司?要不要去外包公司?> 很多粉丝看了后,感觉都在说自己, 存在即合理, 外包大幅度降(可)低(以)了(压)用(榨)人(更)成(多)本( ...

  6. 我当年如何入门Linux的?-zdc的那些往事

    一.通信当年的疯狂 还记得09年初, 山寨机横行, 市场上手机主要还是塞班os, 小灵通还没有退出市场, 基于安卓的智能手机陆续推出. 没有王者荣耀,更没有微信, 小米的米聊还在ppt里: 那个时候网 ...

  7. Linux库概念,动态库和静态库的制作,如何移植第三方库

    一.什么是库? 在windows平台和linux平台下都大量存在着库.一般是软件作者为了发布方便.替换方便或二次开发目的,而发布的一组可以单独与应用程序进行compile time或runtime链接 ...

  8. wifi基础(一):无线电波与WIFI信号干扰、衰减

    liwen01 2024.08.18 前言 无论是在产品开发还是在日常生活中,在使用无线网络的时候,都会经常遇到一些信号不好的问题,也会产生不少疑问: 为什么我们在高速移动的高铁上网络会变慢? 为什么 ...

  9. vscode使用说明

    # 要经常保存 # centos打开vscode方式 普通用户:[bw@localhost ~]$ /usr/share/code/bin/code 超级用户:[root@localhost shar ...

  10. 使用 Gradle 构建包含所有依赖的 JAR 包

    在 Gradle 中构建一个包含所有依赖的 jar 包(通常被称为"fat jar"或者"uber jar"),你可以使用 shadowJar 插件来包含编译的 ...