url存活探测小脚本
使用方法:
python alive_sweep.py -h
usage: python alive_sweep.py -f urllist.txt
Powered by Eryi
optional arguments:
-h, --help show this help message and exit
-f FILE, --file FILE 从文件中读取扫描目标
-o OUTPUT, --output OUTPUT
输出结果URL到文件(default=[time].txt)
-c CSV, --csv CSV oneforall输出csv文件直接扫描
-r RAPID, --rapid RAPID
RapidDNS输出csv文件直接扫描
-t THREAD, --thread THREAD
扫描线程设置(default=100)
-
扫描txt
python alive_sweep.py -f urllist.txt
-
扫描oneforall生成的csv文件
python alive_sweep.py -c a.edu.cn.csv
-
自定义输出文件名[默认是当前时间.txt]
python alive_sweep.py -f urllist.txt -o test.txt
-
自定义线程[默认是100]
python alive_sweep.py -c a.edu.cn.csv -t 400 -o a.txt
-
新增!扫描RapidDNS导出的csv文件
python alive_sweep.py -r baidu.com.csv
-
优化!
- 添加RapidDNS导出csv文件重复域名去重
- 对相同域名可能输出http和https两个结果进行去重处理
- 将请求url直接打印至控制台修改为更为直观的进度条