PJzhang:经典子域名爆破工具subdomainsbrute
猫宁!!!
参考链接:
https://www.waitalone.cn/subdomainsbrute.html
https://www.secpulse.com/archives/5900.html
很多人知道子域名挖掘机,不过我最早使用的子域名爆破工具是lijiejie的subdomainsbrute,简单容易上手,而且字典符合中国人习惯。
上一次更新已经是2018.02.06的事情了。
github地址:https://github.com/lijiejie/subDomainsBrute
我用的操作系统是kali linux
先下载到本地再说
git clone https://github.com/lijiejie/subDomainsBrute.git
cd /root/subDomainsBrute
执行python脚本,作者采用的python2,作者说需要pip install gevent dnspython,2个python模块,不过我的电脑已经安装好了。
python subDomainsBrute.py
显示基础命令项:
查看这个工具的版本,现在已经是1.1版本了
python subDomainsBrute.py –version
显示帮助文件内容,和执行python subDomainsBrute.py没区别
python subDomainsBrute.py -h
爆破子域名,采用默认字典subnames.txt,这个字典有15374个关键词,爆破出870个子域名,花费时间5-6分钟左右。
同时爆破出来的子域名中还有一些三级域名,例如app.news.baidu.com,这就是为什么爆破次数为129583次了,进行了循环爆破。
python subDomainsBrute.py baidu.com
爆破结束以后,会生成一份txt文档,里面除了公网域名,还有很多的内网域名可以看到,私有dns和公有dns共用的结果。
这里用到2家公共dns服务器,阿里的223.6.6.6,223.5.5.5,腾讯的119.29.29.29 ,182.254.116.116。txt文档域名后面对应的是解析的IP。
上面自动生成的文档,名字是baidu.com.txt,名称是可以自定义的,如
python subDomainsBrute.py baidu.com -o baidu.txt
这里默认的进程是6,默认的线程是200,都是可以调整的,线程是最小的执行单元,进程中至少包含1个线程,这里把进程设置为1会好些,线程开的过高也会有更高的误报。
python subDomainsBrute.py -p 1 -t 200 baidu.com -o baidu.txt
生成的结果txt文档中,有很多的内网ip,如果想要忽视掉,可以这样,加一个-i就好,域名对应的ip是内网的会被清除掉,结果只发现692个子域名,花费时间7-8分钟。
python subDomainsBrute.py -p 1 -t 200 -i baidu.com -o baidu.txt
字典是子域名爆破中非常关键的一个环节,字典也是可以自定义的,作者提供了一份清单,dns_servers.txt是dns服务器的ip,sample_qq.com.txt是针对腾讯的爆破结果样例展示,subnames_all_5_letters.txt表示的是最多到4级域名,如a.aa.aaa.baidu.com,如下
{alphnum}
{alphnum}{alphnum}
{alphnum}{alphnum}{alphnum}
{alphnum}{alphnum}{alphnum}{alphnum}
{alphnum}{alphnum}{alphnum}{alphnum}{alphnum}
如果采用大字典subnames_full.txt,爆破三级及以上域名采用next_sub_full.txt字典,无疑需要花费更多的时间,如下
python subDomainsBrute.py -p 1 -t 200 -i –full baidu.com -o baidu.txt
-f的功能是首先调用next_sub.txt进行子域名爆破,工具会自动调用next_sub.txt进行深入轮循爆破,-f引用的字典名字也可以自定义的。
python subDomainsBrute.py -f next_sub.txt baidu.com -o baidu.txt
如果发现比较好的关键词,也可以向里面的字典中进行添加。
lijiejie的子域名爆破工具实用性很强,对于里面的细节使用不能浅尝辄止,如果只是python subDomainsBrute.py baidu.com -o baidu.txt就算完了,对自己的子域名收集和深入了解信息收集会是阻碍。