翻译来自:掣雷小组
成员信息:
thr0cyte,Gr33k,花花,MrTools,R1ght0us,7089bAt,
这个公众号,一定要关注哦,慢慢会跟上面老哥们一起分享很多干货哦~~
标记红色的部分为今日更新内容。
第三章、使用代理、爬行器和爬虫
3.0、介绍
3.1、使用DirBuster寻找敏感文件和目录
3.2、使用ZAP寻找敏感文件和目录
3.3、使用Burp Suite查看和修改请求
3.4、使用Burp Suite的Intruder模块发现敏感目录
3.5、使用ZAP代理查看和修改请求
3.6、使用ZAP的爬虫功能
3.7、使用burp爬取网站页面
3.8、使用Burp Suite的重放功能
3.9、WebScarab的使用
3.10、从爬行结果中识别相关文件和目录
3.10、从爬行结果中识别相关文件和目录
我们已经抓取了一个完整的web应用程序目录,并且有了所有引用文件的列表及其路径。下一步是确定哪些相关信息有很大机会发现漏洞。
实战演练
操作步骤:
1. 我们要寻找的第一件事是登录页面和注册页面,这些可以让我们有机会成为应用程序的合法用户或通过猜测用户名和密码来冒充一个人。
这里有一些例子:
2. 密码恢复页面也存在大量逻辑漏洞:
3. 下面,我们需要确定是否存在web应用程序的管理页面或其他越权页面,这些部分可能允许我们对其执行高权限操作。比如:
4. 其他一些有趣的目录是内容管理系统(CMS),数据库或应用程序服务器相关:
5. 应用程序的测试和开发版本通常受到的保护较少,而且相比于最终版本更容易发现漏洞,因此它们是我们搜索弱点的一个很好的目标。这些目录的名称可能包括:
6. Web服务器信息和配置文件有时可以提供可利用的线索,软件版本或其他特定设置的有价值信息:
7. 此外,robots.txt中标记为disallow的所有目录和文件可能都很有用。
原理剖析
上面列出的一些目录可能允许我们访问站点的受限部分,这是渗透测试中非常重要的一步; 如果忽略它们的存在,我们就无法找到这些地方的漏洞。 其中一些将为我们提供有关服务器的配置信息,以及使用的开发框架。 其他一些如Tomcat管理器和JBoss管理页面,如果配置错误,将有可能被恶意用户直接拿下Web服务器的权限。