首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Nginx常用屏蔽规则 - 让网站更安全

前言 Nginx是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问。...(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义...,反而增加服务器压力,可以直接将其屏蔽。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。...上面大部分规则返回444状态码而不是403,因为444状态码在nginx中有特殊含义 nginx的444状态是直接由服务器中断连接,不会向客户端再返回任何消息,比返回403更加暴力 版权属于:Xcnte

1.4K20

Nginx常用屏蔽规则,让网站更安全

前言 Ng­inx (en­gine x) 是一个高性能的 HTTP 和反向代理服务,目前很大一部分网站均使用了 Ng­inx 作为 WEB 服务器,Ng­inx 虽然非常强大,但默认情况下并不能阻挡恶意访问...(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的 UA 总是频繁的来访问网站,而这些 UA 对网站收录毫无意义...,反而增加服务器压力,可以直接将其屏蔽。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或 CC 攻击,可从网站日志中分析特征 IP,将其 IP 或 IP 段进行屏蔽。...ng­inx的 444状态是直接由服务器中断连接,不会向客户端再返回任何消息,比返回403更加暴力。若有不足还请补充和指正。

23410

Nginx常用屏蔽规则,让网站更安全

Nginx (engine x) 是一个高性能的HTTP和反向代理服务,目前很大一部分网站均使用了Nginx作为WEB服务器,Nginx虽然非常强大,但默认情况下并不能阻挡恶意访问,xiaoz整理了一份常用的...(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的UA总是频繁的来访问网站,而这些UA对网站收录毫无意义...,反而增加服务器压力,可以直接将其屏蔽。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或CC攻击,可从网站日志中分析特征IP,将其IP或IP段进行屏蔽。...nginx的444状态是直接由服务器中断连接,不会向客户端再返回任何消息,比返回403更加暴力。若有不足还请补充和指正。

1.6K20

Nginx常用屏蔽规则,让网站更安全

前言 Nginx (engine x) 是一个高性能的 HTTP 和反向代理服务,目前很大一部分网站均使用了 Nginx 作为 WEB 服务器,Nginx 虽然非常强大,但默认情况下并不能阻挡恶意访问,...(zip|rar|sql|bak|gz|7z)$ { return 444; } 屏蔽非常见蜘蛛(爬虫) 如果经常分析网站日志你会发现,一些奇怪的 UA 总是频繁的来访问网站,而这些 UA 对网站收录毫无意义...,反而增加服务器压力,可以直接将其屏蔽。...(php|php5)$ { return 444; } 屏蔽某个IP或IP段 如果网站被恶意灌水或 CC 攻击,可从网站日志中分析特征 IP,将其 IP 或 IP 段进行屏蔽。...via: Nginx常用屏蔽规则,让网站更安全 | 喵斯基部落 https://www.moewah.com/archives/1796.html

2.7K20

巧用网站禁止收录机制屏蔽蜘蛛抓取页面

基于网站安全与盈利的因素,站长并不希望某些目录或页面被抓取和收录,比如付费内容、测试阶段的页面及复制内容页面等。...但在某些情况下搜索引擎是能够读取他们的,基于网站排名考虑,我们建议慎用 JavaScript、Flash 链接及Nofollow属性屏蔽收录。...强调一下,建站使用 JavaScript、Flash 链接其实是在给网站制造蜘蛛陷阱,致使搜索引擎不能正确判断与抓取页面的主题与文字。...要确保网站某些目录或页面不被收录,需要正确使用 robots 文件或Meta Robots 标签来实现网站的禁止收录机制。...1、robots 文件 搜索引擎蜘蛛访问网站时,会先查看网站根目录下有没有一个命名为 robots.txt 的纯文本文件,它的主要作用是制定搜索引擎抓取或者禁止网站的某些内容。

1.4K30

论手机网站(wap)网页广告防屏蔽的方法

智能手机的崛起,让现在的网站越来越重视移动端,随之而来的广告形式也越来越向移动端倾斜侧重;但是本君发现一个现象,现在各大手机浏览器厂商对移动端广告过滤越来越严格,几乎只要开启过滤,大部分广告是要被过滤的...浏览器商家过滤广告的原理是什么,其实没有那么复杂,他肯定是解析您网站网页内容时,等网页加载完,然后解析里面JS代码,出现悬浮(主要fixed标签属性,过滤率百分之九十几),网址,等关键属性代码时就会过滤其属性代码或者追加代码让您的代码失效...我写过测试代码,挂网站没有测试,只是挂网站子目录,单独测试目前没有被过滤!

2K10

宝塔控制面板怎么屏蔽IP地址访问网站

今天查看服务器状态,不小心误点了服务器的IP地址,然后居然能打开,,,OMG,怎么会这样,这怎么行呢?...什么是恶意解析 一般情况下,要使域名能访问到网站需要两步: 第一步,将域名解析到网站所在的主机。 第二步,在web服务器中将域名与相应的网站绑定。...但是,如果通过主机IP能直接访问某网站,那么把域名解析到这个IP也将能访问到该网站,而无需在主机上绑定,也就是说任何人将任何域名解析到这个IP就能访问到这个网站。 原理和危害是什么呢?...简单解释就是,你的网站可以通过IP直接访问,本来这没什么问题,但是如果被人恶意用别的域名解析到你的IP的话,那么你的网站就能通过别人的域名来访问了,比如指向非法网站,容易引发搜索引擎惩罚,连带IP受到牵连...好了,收工,这种教程网上也有很多,基本都能解决的,还是那句话修改前记得做好备份(是指在主网站操作),因为我发现我的网站配置如上代码有出现访问空白的问题,就是IP访问和域名访问都会出现一样的界面,所以我才新建一个站点

2.7K30

联通疑似屏蔽工信部投诉网站,域名被指向127.0.0.1

4月25日开始,陆续有用户在微博上反映,部分地区的联通用户无法正常访问工信部投诉网站,经过查证之后发现该地区联通用户在访问工信部投诉网站时IP地址竟然被解析到了“127.0.0.1”这个地址。 ?...用户几乎同时用联通4G网络、联通宽带以及移动4G网络访问工信部投诉网站,联通的4G网络及宽带网络均无法打开该网站。...一般来说,用户使用的都是所属运营商默认的DNS服务器,在该网络状态下工信部网站IP地址解析成127.0.0.1,基本可以理解为是直接屏蔽掉了。...截至笔者发稿之时,已知的问题地区访问工信部网站已经恢复正常,DNS解析也恢复。离微博曝出这次事件不过十几个小时的时间,但中国联通还没有对此事有任何回应。

6.3K30

如何过滤屏蔽掉抓取你WordPress网站的无用蜘蛛

很久之前其实就发现一个问题,很多的蜘蛛来抓取你的网站,通过分析网站的日志文件可以看到,有很多蜘蛛我们是欢迎的,有些我们确实不想要的,但是却长期的在抓取,于是想要把他屏蔽掉,当天一般想到的办法可能是定义robots...文件去屏蔽蜘蛛; 但是这个似乎并没有用处,一方面有些蜘蛛并不遵守这个规则协议,照样抓取,一方面很多蜘蛛其实是仿冒的,比如你也可以仿冒百度蜘蛛的UA信息去抓取别人的网站,所以robots文件几乎是没法实现的...5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots) 等,这些几乎是国外的一些搜索引擎或者是根本不会带来任何好处比如搜索流量的,所以可以直接屏蔽他们...其他有益的蜘蛛需要保留不要误杀了,比如谷歌百度搜狗头条什么等等;除了防火墙可以屏蔽UA还可以借助CDN去实现屏蔽UA; ? 为什么要屏蔽呢?...其实到不见得有什么明显的好处,反正看到日志里面出现很多这些没用的觉得没有意义,访问抓取的时候还会消耗一定的服务器资源,带来带宽流量等消耗;

1.6K00
领券