主要是用于对网站子域名、开放端口、端口指纹、c段地址、敏感目录、链接爬取等信息进行批量搜集。
fuzzScanner可用于批量快速的搜集网站信息,比别人更快一步的发现其他端口的应用或者网站管理后台等,也适合src漏洞挖掘的前期信息搜集。主要是用于对网站子域名、开放端口、端口指纹、c段地址、敏感目录、链接爬取等信息进行批量搜集。
VTest - 漏洞测试辅助系统用于辅助安全工程师漏洞挖掘、测试、复现,集合了mock、httplog、dns tools、xss,可用于测试各类无回显、无法直观判断或特定场景下的漏洞,例如:存储型xss、ssrf、远程代码执行/注入、远程命令执行/注入、文件包含等。
企业可能有多个、几十个甚至很多的子域名应用,因为子域名数量多,企业在人员和防护的投入可能会没有主站及时。攻击者在主域名找不到突破口时,就可以进行子域名的信息收集,然后通过子域名的漏洞进行迂回。
通过OneForAll收集子域名,相比其他同类工具而已是比较优秀的。通过爬虫 DNS 搜索引擎等多种手段进行收集,使收集的结果比较准确,是一款不错的前期信息收集工具。
前言 为了满足新手对Python的追求,特写了三个初级Python入门工具。第一期写了三个初级工具,希望新手看完以后可以对Python的脚本有一个基本了解。高手请绕过此文章! 一件套 pythond requests模块构造一个whois信息收集器 二件套 python编写一个arp断网攻击 三件套 目录信息收集 一件套前言: 带给想写项目但无从下手的朋友们,这些脚本都比较容易理解。 简单梳理一下此工具需要具备哪些功能。脚本获取信息如下: IP信息 子域
Spoofy是一款功能强大的域名安全检测工具,在该工具的帮助下,广大研究人员可以轻松检测单个目标域名或域名列表中的域名是否存在遭受欺诈攻击的风险。
在使用资产测绘程序进行信息收集的时候,又遇到一个问题:以 fofa 为例,我现在通过其他手段,收集了一些分公司、全资公司名称、子域名、IP、icp备案号、网页title、电话号码等,信息量这么老大,怎么才能把这些数据都通过 fofa 过一遍呢?
渗透测试者可以使用的信息收集方法包括公开来源信息查询、Google Hacking、社会工程学、网络踩点、扫描探测、被动监听、服务查点等。而对目标系统的情报探查能力是渗透测试者一项非常重要的技能,信息搜集是否充分在很大程度上决定了渗透测试的成败,因为如果你遗漏关键的情报信息,你将可能在后面的阶段里一无所获。
我也来水一水文章,讲讲我在用腾讯云的centos7镜像部署的服务器上能痛快的执行“fuck”命令之前到底经历了多少“磨难”,也算是给自己和别人一个参考吧
HawkScan是一款针对网站的网络侦察和信息收集工具,并且同时支持Python 2.x和Python 3.x环境。
SSRF(Server-Side Request Forgery:服务器端请求伪造) 是一种由攻击者构造形成,由服务端发起请求的一个安全漏洞。SSRF是笔者比较喜欢的一个漏洞,因为它见证了攻防两端的对抗过程。本篇文章详细介绍了SSRF的原理,在不同语言中的危害及利用方式,常见的绕过手段,新的攻击手法以及修复方案。
作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:
信安之路上很少发布跟开发相关的文章,给人的感觉好像搞安全不需要写代码一样的,其实不是这样的,因为开发相关技术有专门的人去分享,而我们只想专注于安全技术而已,今天就来给大家聊一聊在渗透测试中我们可能需要写的脚本功能,我平时代替手工提升效率使用的语言是 python,所以就以 python 为例贯穿整个渗透过程的功能,也可以作为指导,针对性的去学习和实践。
在线whois查询域名注册时留下的信息,如:管理员姓名、邮箱等。 在线whois地址:https://whois.chinaz.com/
*本文作者:feiniao,本文属 FreeBuf 原创奖励计划,未经许可禁止转载。
这个实战例子是构建一个大规模的异步新闻爬虫,但要分几步走,从简单到复杂,循序渐进的来构建这个Python爬虫
在渗透测试中信息收集的重要性不言而喻,子域收集是信息收集中必不可少且非常重要的一环,目前网上也开源了许多子域收集的工具,但是总是存在以下部分问题:
项目更新 Watchdog是bayonet优化版,重新优化了详情web、数据库模型,了多节点部署等功能,请查看: https://github.com/CTF-MissFeng/Watchdog 简介 Bayonet 是整合多款安全工具并以网络形式驱动,它辅助渗透测试人员对 IT 资产进行资产管理。 遇到问题,请查看lssues是否有解决方案 功能点 子域名扫描:oneforall 端口服务扫描:shodan+异步socket+nmap(ip数据库、CDN判断) URL 可检测 驱动浏览器爬虫采集数据:cr
.app 域名是前段时间谷歌花费2500万美元竞拍获得,是全球首个需要 HTTPS 加密的顶级域名。该域名从2018年5月8日开始全面接受注册,由于这个域名对于现今移动 APP 的发展有着非常重要的意义,所以必将带来一波域名疯抢的高潮。那么,在这波域名抢注的机会中,我们可以使用 Python 做点什么呢?
前言 这里主要是讲如何快速扫描到有问题的flash文件,用于批量,有时候很笨的方法也会有奇效,下面记录一下在实现过程中的一些思路和遇到的一些坑。 第三方插件 通过自己为数不多的网站渗透的经验,发现了两
SSRF是一种常见的Web漏洞,通常存在于需要请求外部内容的逻辑中,比如本地化网络图片、XML解析时的外部实体注入、软件的离线下载等。当攻击者传入一个未经验证的URL,后端代码直接请求这个URL,将会造成SSRF漏洞。
简介 在平时的安全测试中,信息收集是非常重要的一部分,信息收集之前少不了最重要的一步,就是判断网站是否使用了CDN。在测试过程中,如果目标使用了CDN 服务,将会影响到后续的安全测试过程。 方法 判断CDN的方法有很多种,在这里主要来讲解用nslookup判断并实现批量判断的目的。 使用nslookup,如果目标有CDN服务的话,那么将会返回多个IP地址(>=2个)。 nsllokup www.xxxx.com 可以清楚的看到该域名返回了两个地址,可以判断该域名使用了CDN服务。 我们的目的就是用
with os.popen('who','r') as f: for eachLine in f: print(re.split(r'\s\s+|\t',eachLine.strip())) 18、实例tasklist
安装完成中,我们需要在config.yml文件中配置客户端和服务器端的API密钥,这两个密钥必须相同。
在渗透测试领域有琳琅满目的工具、神器,它们可以大大简化渗透测试的工作量。但很多时候仅仅使用别人的工具是不够的,我们需要自己去编写一些脚本、插件来完成定制的内容,而这样的工作会很大程度提升渗透测试的效率。笔者认为没有最好的工具,如果有则一定是自己根据自己需要开发的工具。
total(内存总数)、used(已使用的内存数)、free(空闲内存数)、buffers(缓冲使用数)、cache(缓存使用数)、swap(交换分区使用数)
JSFinder是一款优秀的github开源工具,这款工具功能就是查找隐藏在js文件中的api接口和敏感目录,以及一些子域名。
信息泄露 敏感信息泄露 信息泄露会暴露服务器的敏感信息,使攻击者能够通过泄露的信息进行对网站的进一步入侵 软件敏感信息 操作系统版本 可以通过NAMP等扫描得知 中间件的类型以及版本 http返回头判断 404报错页面(很多中间件会自定义404页面) 使用工具(例如whatweb:这是一种网站指纹识别工具) Web程序(CMS类型以及版本、敏感文件) 使用工具(whatweb、cms_identify) Web敏感信息 phpinfo()信息泄露: http://[ip
那怎样确认自己的站点是否被百度收录呢?最直接的办法当然是直接搜索网站名称(通常是首页的标题title),但理论上来说,这个办法并不准确,因为有可能已经收录了,但因为权重问题,排名靠后,所以理论上你得将所有搜索结果页都翻遍了都没有才能确认是没收录,工作量太吓人了吧,肯定有更好的办法。
weakfilescan 基于爬虫,动态收集扫描目标相关信息后进行二次整理形成字典规则,利用动态规则的多线程敏感信息泄露检测工具,支持多种个性化定制选项,包括: 规则字典多样化定义(支持正则、整数、字符、日期) 扫描域名策略(域名全称、主域名、域名的名字) 自定义HTTP状态码 支持动态配置HTTP脚本扩展名 自定义判断文件是否存在正则 返回结果集误报清洗选项 HTTPS服务器证书校验 线程数定义 HTTP请求超时时间 是否允许URL重定向 是否开启Session支持,在发出的所有请求之间保持cookie
在进行电子邮件营销或者其他涉及大量电子邮件的业务中,有效电子邮件地址的筛查是至关重要的一步。有效的电子邮件地址应该具备一定的格式和规范,aoksend将介绍有效电子邮件地址的特征,并探讨如何使用代码筛查有效电子邮件地址。
一、真实IP:核心点在CDN上,CDN的存在是为了使用户的网络体验效果更佳,CDN是可以存放一些动态/静态页面的,但是价钱也会更高,同时可以部署WAF等,寻找的真实IP的思路就是绕过CDN,那么绕过CDN又有很多种方式: step1确定是否存在CDN,很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN。 ping测试网站: 超级ping 爱站ping 国外ping有些网站不会在国外设置CDN 全球ping step2 绕过方式 1、查看网站的DNS历史解析记录,然后IP反查看能否解析出域名。也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录 。 DNS解析 2、可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。 3、www有cdn,无3w没有cdn。 4、邮件服务器,通过对目标网站注册或者RSS订阅,查看邮件,寻找邮件头中的邮件服务器IP,ping这个邮件服务器域名,可以获得真实IP。 5、Nslookup查询看域名的NS记录、MX记录、TXT记录等很可能指向真实IP或C段服务器。
很多攻击手段都是通过脆弱的旁站和C段实现的,DDOS亦是如此,它可以导致服务器被占用资源甚至当机。这些攻击得以实施都是由于用户web服务器的真实ip暴露出去了。下面为大家揭秘黑客查找真实ip的多种方法。
前段时间,看了一本书名为《Kali Linux 渗透测试的艺术》,我发现书中第四章信息搜集那部分有些内容不能适应有些内容不能适用国内,这勾起了我想总结一下国内信息搜集的欲望,于是就有了这篇文章。
去年,我购买了域名cvtutorials.com(一口气买了10年的:p),打算在这个网站以及自己的公众号:机器视觉全栈er上输出机器视觉领域文章,跌跌撞撞已经有大半年了。
前几天想爬取一个用户网站自动创建每个用户的资料方便注册一些账号,想写一个通用点的爬虫程序爬取只要配置一些爬取规则、爬取深度就ok,避免代码改动,由于时间关系只完成的个半成品,后面在考虑是用xml文件作为配置文件,还是简单的使用.ini文件,后者虽然简单但局限性太大,所以,,,偷几天懒顺便重新考虑下逻辑。
日常项目中,在使用python优化测试工具时,小编遇到了一些较常见的问题,现借此机会和大家分享下这些问题及相关的处理思路。
大白又来了,先容我膜拜一波自家师兄S0cke3t的CS插件,大佬牛逼(破音)
本次的议题,关于云存储的一个攻击利用方式,在SRC漏洞挖掘,或在火线安全平台的众测项目中,我们也会收到很多关于对象存储的一个劫持和权限配置的一些问题,对象存储在安全这一块也是一个不可忽略的方向。
先看几张对比图,分别是官网截图和抓取下来的txt文档的截图,不算那难看的排版的话,内容是一致的,图片用url替换了!
哈希表:也叫做散列表。是根据关键字和值(Key-Value)直接进行访问的数据结构。也就是说,它通过关键字 key 和一个映射函数 Hash(key) 计算出对应的值 value,然后把键值对映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做哈希函数(散列函数),用于存放记录的数组叫做 哈希表(散列表)。哈希表的关键思想是使用哈希函数,将键 key 和值 value 映射到对应表的某个区块中。可以将算法思想分为两个部分:
我意识到自己是第一次听说盗链,不是很明白,但感觉这与爬虫与反爬虫有些类似,于是就自己 google 了下。下面说说自己的理解。
本文用识别由域名生成算法Domain Generation Algorithm: DGA生成的C&C域名作为例子,目的是给白帽安全专家们介绍一下机器学习在安全领域的应用,演示一下机器学习模型的一般流程。机器的力量可以用来辅助白帽专家们更有效率的工作。 本文用到的演示数据集和python演示代码请参见 https://github.com/phunterlau/dga_classifier 关于编码和行文风格过于仓促的问题,请不要在意这些细节,如果有相关问题可以微博上@phunter_lau,大家互相交流进步
众所周知xray是可以进行子域名爆破、查询的,但是导出来的是html,不利于我部署自动化任务
关于https证书的过期巡检监控,还真是百密一疏!仔细复盘,可能我们将注意力都集中在基础设施、基础状态、应用系统、中间件、数据库、链路追踪、日志,以及更高阶的可观测的概念及如何建设上,而忽略了当下,孰不知我们现阶段为监控所做的一切都是在提高系统的可观测性!因此对于监控,即使没有可观测性的加成,也可以使我们的监控系统满足业务日益发展的需要。
自幼受贵州大山的熏陶,养成了诚实质朴的性格。经过寒窗苦读,考入BIT,为完成自己的教师梦,放弃IT、航天等工作,成为贵财一名大学教师,并想把自己所学所感真心传授给自己的学生,帮助更多陌生人。
新的一天新的难过,昨天无敌倒霉,可能一年总有那么一天是这样的吧,所以,才,导致了这篇文章迟来了一天
领取专属 10元无门槛券
手把手带您无忧上云