目标:用Python3写一款小型的web目录扫描工具

功能:1.扫描指定站点

   2.指定网站脚本类型来扫描

   3.可控线程

   4.可保存扫描结果

首先定义一个命令参数的函数

def parse_option():
    parser = argparse.ArgumentParser(description="The Argument of DirScan")
    parser.add_argument("-u","--url",dest="url",help="The Url to Scan")
    parser.add_argument("-e","--extensions",dest="extensions",help="Web Extensions")
    parser.add_argument("-t","--thread",dest="thread",default=10,type=int,help="The Thread to Scan")
    parser.add_argument("-r","--report",action="store_true",help="Save The Result of Scan")
    args = parser.parse_args()
    return args

定义了4个参数,-u用来指定扫描的url,-e用来指定网站类型,-t用来指定线程数,默认为10,-r为保存扫描结果

参数的值传入变量args,然后返回

然后定义一个开始的函数,对url进行处理和启用多线程

def start(url, ext, count):
    queue = Queue() #生成一个队列

    print('\033[34;1m   Status   Url Path\033[0m')

    global url_r #设置为全局变量

    #对传入的url进行处理
    if url.endswith("/"):
        url = url.rstrip("/")
    #对url进行处理方便写入结果
    if url[4] == 's':
        url_r = url.lstrip("https://")
    if url[4] == ':':
        url_r = url.lstrip("http://")

    #打开字典,并和url进行拼接
    f = open('%s.txt' %ext,'r')
    for i in f:
        queue.put(url + i.rstrip('\n'))

    threads = []
    thread_count = count

    for i in range(thread_count):
        threads.append(Dirscan(queue)) #调用多线程
    for t in threads:
        t.start() #开启多线程
    for t in threads:
        t.join()  #等待

这里用类方法来进行多线程的调用

class Dirscan(threading.Thread):
    def __init__(self,queue):
        threading.Thread.__init__(self)
        self.queue = queue

    def run(self):
        while not self.queue.empty():
            url_path = self.queue.get() #从队列里获取url

            #随机user-agents
            u = open("user-agents.txt", "r")
            headers_list = []
            random_headers = {}
            for i in u:
                headers_list.append(i.strip())
            random_headers["user-agents"] = random.choice(headers_list)
            headers = random_headers

            try:
                r = requests.get(url=url_path, headers=headers, timeout=6,allow_redirects=False)
                status_code = r.status_code
                if status_code == 200:
                    print("\033[32;1m[+]   [%s]    %s\033[0m"%(status_code,url_path))
                    if cmd_args.report: #如果有传入-r参数,则执行write_report()函数来写扫描结果
                        write_report(url_path)
                        return url_path
            except Exception as e:
                print("\033[41;1m%s\033[0m"%e)

然后是写扫描结果的函数

def write_report(url):
    with open("%s.html"%url_r, "a") as r:
        r.write('<a href="'+url+'" target="_blank">'+url+'</a><br>')
        r.close()

最后是程序的入口

if __name__ == '__main__':
    cmd_args = parse_option() #把parse_option()返回的args赋给变量cmd_args
    url = cmd_args.url #把args中的url传给变量url
    extension = cmd_args.extensions #把args中的extensions传给变量extension
    thread = cmd_args.thread #把args中的thread传给变量thread
    start(url,extension,thread) #把三个参数传入start()函数

以html格式保存扫描结果,也方便直接打开扫描结果

最后的完整代码

# -*- coding:utf-8 -*-
__author__ = "MuT6 Sch01aR"

import requests
import argparse
import threading
from queue import Queue
import random

class Dirscan(threading.Thread):
    def __init__(self,queue):
        threading.Thread.__init__(self)
        self.queue = queue

    def run(self):
        while not self.queue.empty():
            url_path = self.queue.get()
            u = open("user-agents.txt", "r")
            headers_list = []
            random_headers = {}
            for i in u:
                headers_list.append(i.strip())
            random_headers["user-agents"] = random.choice(headers_list)
            headers = random_headers
            try:
                r = requests.get(url=url_path, headers=headers, timeout=6,allow_redirects=False)
                status_code = r.status_code
                if status_code == 200:
                    print("\033[32;1m[+]   [%s]    %s\033[0m"%(status_code,url_path))
                    if cmd_args.report:
                        write_report(url_path)
                        return url_path
            except Exception as e:
                print("\033[41;1m%s\033[0m"%e)

def write_report(url):
    with open("%s.html"%url_r, "a") as r:
        r.write('<a href="'+url+'" target="_blank">'+url+'</a><br>')
        r.close()

def start(url, ext, count):
    queue = Queue()

    print('\033[34;1m   Status   Url Path\033[0m')

    global url_r
    if url.endswith("/"):
        url = url.rstrip("/")
    if url[4] == 's':
        url_r = url.lstrip("https://")
    if url[4] == ':':
        url_r = url.lstrip("http://")

    f = open('%s.txt' %ext,'r')
    for i in f:
        queue.put(url + i.rstrip('\n'))

    threads = []
    thread_count = count

    for i in range(thread_count):
        threads.append(Dirscan(queue))
    for t in threads:
        t.start()
    for t in threads:
        t.join()

def parse_option():
    parser = argparse.ArgumentParser(description="The Argument of DirScan")
    parser.add_argument("-u","--url",dest="url",help="The Url to Scan")
    parser.add_argument("-e","--extensions",dest="extensions",help="Web Extensions")
    parser.add_argument("-t","--thread",dest="thread",default=10,type=int,help="The Thread to Scan")
    parser.add_argument("-r","--report",action="store_true",help="Save The Result of Scan")
    args = parser.parse_args()
    return args

if __name__ == '__main__':
    cmd_args = parse_option()
    url = cmd_args.url
    extension = cmd_args.extensions
    thread = cmd_args.thread
    start(url,extension,thread)

Python打造一个目录扫描工具的更多相关文章

  1. 目录扫描工具 dirsearch 使用详解

    介绍 dirsearch 是一个python开发的目录扫描工具.和我们平时使用的dirb.御剑之类的工具一样,就是为了扫描网站的敏感文件和目录从而找到突破口. 特点 多线程 可保持连接 支持多种后缀( ...

  2. phantomjs + python 打造一个微信机器人

    phantomjs + python 打造一个微信机器人 1.前奏   媳妇公司不能上网,但经常需要在公众号上找一些文章做一些参考,需要的时候就把文章链接分享给我,然后我在浏览器打开网页,一点点复制过 ...

  3. 渗透测试工具篇之目录扫描工具dirmap

    (一)dirmap介绍 一个高级web目录扫描工具,功能将会强于DirBuster.Dirsearch.cansina.御剑 (二)dirmap安装 打开浏览器输入https://github.com ...

  4. python遍历一个目录,输出所有文件名

    python遍历一个目录,输出所有文件名 python os模块 os import os  def GetFileList(dir, fileList):  newDir = dir  if os. ...

  5. python之web路径扫描工具

    # coding: UTF-8 import sys, os, time, httplibimport relist_http=[]  #http数组 def open_httptxt():  #打开 ...

  6. Python读取一个目录下的所有文件

    #!/usr/bin/python # -*- coding:utf8 -*- import os allFileNum = 0 def printPath(level, path): global ...

  7. python 读取一个目录下的所有目录和文件

    #!/usr/bin/python # -*- coding:utf8 -*- import os allFileNum = 0 def printPath(level, path): global ...

  8. python 检索一个目录下所有的txt文件,并把文件改为.log

    检索一个目录及子目录下所有的txt文件,并把txt文件后缀改为log: import os f_path = r'C:\Users\PycharmProjects\mystudy\Testfolder ...

  9. python 删除一个目录下的所有文件

    一个目录下有文件,文件夹,文件夹里又有文件.文件夹....用python脚本,实现,递归删除一个目录下的所有文件: 目录结构如下: 其中我们要删除所有文件 代码实现如下: import os CUR_ ...

随机推荐

  1. 【bzoj1258】三角形tri[CQOI2007](乱搞)

    题目传送门:https://www.lydsy.com/JudgeOnline/problem.php?id=1258 这是道很意思的大水题,虽然看上去一脸懵逼,但画张图出来看看也可以窥见一丝端倪. ...

  2. HBase-scan简介及优化(缓存与批量处理)

    扫描(scan) 这种技术类似于数据库系统中的游标(cursor),并利用到了HBase提供的底层顺序存储的数据结构. 扫描操作的使用跟get方法非常类似.由于扫描操作的工作方式类似于迭代器,所以用户 ...

  3. Centos Crontab查看状态和开启

    # service crond status crond is stopped # service crond start Starting crond # service crond status ...

  4. C++的转换函数

    听侯捷老师的讲课笔记: 所谓转换函数指的是类型之间的转换,比如把自定义的类类型转换成内建类型(比如double),后者向相反的方向转. 直接上代码: 头文件conversion_function.h: ...

  5. review16

    java.lang包中的Math类包含许多用来进行科学计算的方法,这些方法可以直接通过类名调用. Math类中还有两个静态常量E和PI,分别表示自然对数和圆周率. 以下是Math类的常用方法 pulb ...

  6. Word 2010 怎么在每一章中使用不同的页眉

    1.要做到每一章的页眉不同首先要进行   分节 word2010中  页面布局   ->  分隔符  ->下一页 上述操作即可实现分节 2.实现分节后,在每一节开头的那一页,编辑页眉   ...

  7. mysql中使用instr替换like

    使用内部函数instr,可代替传统的like方式查询,并且速度更快. instr函数,第一个参数是字段,第二个参数是要查询的串,返回串的位置,第一个是1,如果没找到就是0. 实例: SELECT o. ...

  8. hdu6242 计算几何

    题意:给你n个点,要求找到一个点,和一个圆心,使得有n/2向上取整个点在圆上,一定有满足条件的点存在 题解:既然一定有解,而且圆上有n/2向上取整个点,那么我们可以通过随机来找三个点来确定一个圆心,和 ...

  9. hzau 1208 Color Circle(dfs)

    1208: Color Circle Time Limit: 1 Sec  Memory Limit: 1280 MBSubmit: 289  Solved: 85[Submit][Status][W ...

  10. 性能差异 ASP.NET WebForm与ASP.NET MVC

    一.为什么说 ASP.NET WebForm 比 ASP.NET MVC 要差? WebForm 顾名思义,微软一向主打简单化,窗体模式,拖拽控件就能做网站了, 然而这也引发了许多 Java 和 .N ...