首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

[Web安全]信息收集

一、真实IP:核心点在CDN上,CDN的存在是为了使用户的网络体验效果更佳,CDN是可以存放一些动态/静态页面的,但是价钱也会更高,同时可以部署WAF等,寻找的真实IP的思路就是绕过CDN,那么绕过CDN又有很多种方式: step1确定是否存在CDN,很简单,使用不同地方的 ping 服务,查看对应 IP 地址是否唯一,如果不唯一则极有可能是使用了CDN。 ping测试网站: 超级ping 爱站ping 国外ping有些网站不会在国外设置CDN 全球ping step2 绕过方式 1、查看网站的DNS历史解析记录,然后IP反查看能否解析出域名。也许目标很久之前没有使用CDN,所以可能会存在使用 CDN 前的记录 。 DNS解析 2、可能只会对主站或者流量大的子站点做了 CDN,而很多小站子站点又跟主站在同一台服务器或者同一个C段内,此时就可以通过查询子域名对应的 IP 来辅助查找网站的真实IP。 3、www有cdn,无3w没有cdn。 4、邮件服务器,通过对目标网站注册或者RSS订阅,查看邮件,寻找邮件头中的邮件服务器IP,ping这个邮件服务器域名,可以获得真实IP。 5、Nslookup查询看域名的NS记录、MX记录、TXT记录等很可能指向真实IP或C段服务器。

01

用Nginx禁止国外IP访问我的网站...

图片来自 Pexels 想要实现这个功能有很多方法,下面我就来介绍基于 Nginx 的 ngx_http_geoip2 模块来禁止国外 IP 访问网站。 ①安装 geoip2 扩展依赖: [root@fxkj ~]# yum install libmaxminddb-devel -y ②下载 ngx_http_geoip2_module 模块: [root@fxkj tmp]# git clone https://github.com/leev/ngx_http_geoip2_module.git [ro tmp]# ③解压模块到指定路径 我这里解压到 /usr/local 目录下: [root@fxkj tmp]# mv ngx_http_geoip2_module/ /usr/local/ [root@fxkj local]# ll ngx_http_geoip2_module/ total 60 -rw-r--r-- 1 root root 1199 Aug 13 17:20 config -rw-r--r-- 1 root root 1311 Aug 13 17:20 LICENSE -rw-r--r-- 1 root root 23525 Aug 13 17:20 ngx_http_geoip2_module.c -rw-r--r-- 1 root root 21029 Aug 13 17:20 ngx_stream_geoip2_module.c -rw-r--r-- 1 root root 3640 Aug 13 17:20 README.md ④安装 nginx 模块 首先说明下环境,我的 nginx 版本是 1.16,在网上查了下安装 ngx_http_geoip2 模块至少需要 1.18 版本及以上,因此此次安装我是升级 nginx1.18,添加 ngx_http_geoip2 模块。 下载 nginx 1.18 版本: [root@fxkj ~]# yum install libmaxminddb-devel -y 解压 nginx1.18 软件包,并升级为 nginx1.18,添加 ngx_http_geoip2 模块。 需要注意:

02

网页错误码详细报错

HTTP 400 - 请求无效  HTTP 401.1 - 未授权:登录失败  HTTP 401.2 - 未授权:服务器配置问题导致登录失败  HTTP 401.3 - ACL 禁止访问资源  HTTP 401.4 - 未授权:授权被筛选器拒绝  HTTP 401.5 - 未授权:ISAPI 或 CGI 授权失败  HTTP 403 - 禁止访问  HTTP 403 - 对 Internet 服务管理器 的访问仅限于 Localhost  HTTP 403.1 禁止访问:禁止可执行访问  HTTP 403.2 - 禁止访问:禁止读访问  HTTP 403.3 - 禁止访问:禁止写访问  HTTP 403.4 - 禁止访问:要求 SSL  HTTP 403.5 - 禁止访问:要求 SSL 128  HTTP 403.6 - 禁止访问:IP 地址被拒绝  HTTP 403.7 - 禁止访问:要求客户证书  HTTP 403.8 - 禁止访问:禁止站点访问  HTTP 403.9 - 禁止访问:连接的用户过多  HTTP 403.10 - 禁止访问:配置无效  HTTP 403.11 - 禁止访问:密码更改  HTTP 403.12 - 禁止访问:映射器拒绝访问  HTTP 403.13 - 禁止访问:客户证书已被吊销  HTTP 403.15 - 禁止访问:客户访问许可过多  HTTP 403.16 - 禁止访问:客户证书不可信或者无效  HTTP 403.17 - 禁止访问:客户证书已经到期或者尚未生效  HTTP 404.1 -无法找到 Web 站点  HTTP 404- 无法找到文件  HTTP 405 - 资源被禁止  HTTP 406 - 无法接受  HTTP 407 - 要求代理身份验证  HTTP 410 - 永远不可用  HTTP 412 - 先决条件失败  HTTP 414 - 请求 - URI 太长  HTTP 500 - 内部服务器错误  HTTP 500.100 - 内部服务器错误 - ASP 错误  HTTP 500-11 服务器关闭  HTTP 500-12 应用程序重新启动  HTTP 500-13 - 服务器太忙  HTTP 500-14 - 应用程序无效  HTTP 500-15 - 不允许请求 global.asaError 501 - 未实现  HTTP 502 - 网关错误  用户试图通过 HTTP 或文件传输协议 (FTP) 访问一台正在运行 Internet 信息服务 (IIS) 的服务器上的内容时,IIS 返回一个表示该请求的状态的数字代码。该状态代码记录在 IIS 日志中,同时也可能在 Web 浏览器或 FTP 客户端显示。状态代码可以指明具体请求是否已成功,还可以揭示请求失败的确切原因。日志文件的位置在默认状态下,IIS 把它的日志文件放在 %WINDIRSystem32Logfiles 文件夹中。每个万维网 (WWW) 站点和 FTP 站点在该目录下都有一个单独的目录。在默认状态下,每天都会在这些目录下创建日志文件,并用日期给日志文件命名(例如,exYYMMDD.log)。HTTP1xx - 信息提示  这些状态代码表示临时的响应。客户端在收到常规响应之前,应准备接收一个或多个 1xx 响应。 • 100 - 继续。  • 101 - 切换协议。2xx - 成功  这类状态代码表明服务器成功地接受了客户端请求。  • 200 - 确定。客户端请求已成功。  • 201 - 已创建。• 202 - 已接受。  • 203 - 非权威性信息。  • 204 - 无内容。  • 205 - 重置内容。  • 206 - 部分内容。3xx - 重定向  客户端浏览器必须采取更多操作来实现请求。例如,浏览器可能不得不请求服务器上的不同的页面,或通过代理服务器重复该请求。  • 302 - 对象已移动。  • 304 - 未修改。  • 307 - 临时重定向。4xx - 客户端错误  发生错误,客户端似乎有问题。例如,客户端请求不存在的页面,客户端未提供有效的身份验证信息。  • 400 - 错误的请求。  • 401 - 访问被拒绝。IIS 定义了许多不同的 401 错误,它们指明更为具体的错误原因。这些具体的错误代码在浏览器中显示,但不在 IIS 日志中显示:  • 401.1 - 登录失败。  • 401.2 - 服务器配置导致登录失败。  • 401.3 - 由于 ACL 对资源的限制而未获得授权。  • 401.4 - 筛选器授权失败。  • 401.5 - ISAPI/CGI 应用程序授权失败。  • 401.7 – 访问被 Web 服务器上的 URL 授权策略拒绝。这个错误代码为 IIS 6.0 所专用。  • 403 - 禁止访问:IIS 定义了许多不同的 403

02

Java 网络爬虫,该怎么学?

在后面的几年工作中,也参与了好几个爬虫项目,但是大多数都是使用 Python ,抛开语言不谈,爬虫也是有一套思想的。这些年写爬虫程序,对我个人的技术成长帮助非常大,因为在爬虫的过程中,会遇到各种各样的问题,其实做网络爬虫还是非常考验技术的,除了保证自己的采集程序可用之外,还会遇到被爬网站各种奇奇怪怪的问题,比如整个 HTML 页面有没一个 class 或者 id 属性,你要在这种页面提取表格数据,并且做到优雅的提取,这就是非常考验你的想象力以及技术啦。非常有幸在刚入行的时候就接触到了网络爬虫这一块,它加快了我对互联网的理解和认知,扩宽了我的视野。

06
领券