首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Nginx禁止访问该用401还是403

之前在某些文章中看到建议在nginx配置中用return401而不用403,也没说具体原因,最近这不闲了,突然想起来,google了半天也没有任何相关的信息(可能不太会用google),没办法,只能自己实践看看了...收到401响应,表示请求没有认证—压根没有认证或者认证不正确—但是请重新认证和重试。(一般在响应头部包含一个WWW-Authenticate来描述如何认证)。...收到403响应表示服务器完成认证过程,但是客户端请求没有权限去访问要求的资源 上面是两个状态码的解释,总的来说,401响应应该用来表示缺失或错误的认证;403响应应该用来表示当用户认证后,但用户没有授权对特定资源的访问或操作...,这不是今天的重点 既然是nginx中配置的,那就配置nginx,访问下。...从上面的测试结果来看,401和403对于nginx来说,好像没什么不同,该处理的,还是要处理,没有少任何步骤,所以401和403的选择,应该是根据你要返回给客户端什么样的信息来决定 另外附HTTP状态码决策图

3.2K10

一个奇葩常见的问题 nginx 403 forbidden错误

今天安装dedecms,配置Nginx,然后生成一键生成静态页面,然后就没有然后了,所有栏目页面都显示nginx 403 forbidden。...一般来说nginx403 Forbidden errors 表示你在请求一个资源文件但是nginx不允许你查看。...403 Forbidden 只是一个HTTP状态码,像404,200一样不是技术上的错误。 哪些场景需要返回403状态码的场景? 1.网站禁止特定的用户访问所有内容,例:网站屏蔽某个ip访问。...2.访问禁止目录浏览的目录,例:设置autoindex off后访问目录。 3.用户访问只能内网访问的文件。 以上几种常见的需要返回 403 Forbidden 的场景。 <!...二、目录索引设置错误(index指令配置) 由于dedecms是PHP程序,当时也没注意配置如下 index index.php; 然后悲剧的事情就发生了,栏目下根本就没有php文件啊,只有index.html

3.6K40
您找到你想要的搜索结果了吗?
是的
没有找到

Centos7安装openresty实现WAF防火墙功能

支持User-Agent的过滤,匹配自定义规则中的条目,然后进行处理(返回403)。 支持CC攻击防护,单个URL指定时间的访问次数,超过设定值,直接返回403。...支持Cookie过滤,匹配自定义规则中的条目,然后进行处理(返回403)。 支持URL过滤,匹配自定义规则中的条目,如果用户请求的URL包含这些,返回403。 支持URL参数过滤,原理同上。...=${OPENRESTY_HOME}/bin:$PATH' >> /etc/profile echo 'PATH=/usr/local/openresty/nginx/sbin:$PATH' >> /etc.../blackip.rule 192.168.1.4 然后访问Openresty地址,如下已返回403禁止 IP白名单配置 需要在config.lua中开启config_white_ip_check =...,如下换个页面可以正常访问,不过连续对一个页面60秒内刷新10次以后将也拉入黑名单 异常URL策略配置 需要在config.lua中开启config_url_check = "on"参数 然后定义rule-config

2.1K21

反爬虫攻略:ApacheNginxPHP禁止某些User Agent抓取网站

最近张戈发现nginx日志中出现了好多宜搜等垃圾的抓取记录,于是整理收集了网络上各种禁止垃圾蜘蛛爬站的方法,在给自己网做设置的同时,也给各位站长提供参考。...403; } #禁止指定UA及UA为空的访问 if ($http_user_agent ~* "FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot...如张戈博客的配置: [marsge@Mars_Server ~]$ cat /usr/local/nginx/conf/zhangge.conf location / { try_files $uri...可以看出,宜搜蜘蛛和UA为空的返回是403禁止访问标识,而百度蜘蛛则成功返回200,说明生效! 补充:第二天,查看nginx日志的效果截图: ①、UA信息为空的垃圾采集拦截: ?...②、被禁止的UA拦截: ?

1.8K10

SEO分享:彻底禁止搜索引擎抓取收录动态页面或指定路径的方法

我个人猜测存在如下几个直接原因: 更换主题,折腾时带来过多错误页面或间歇性访问错误; 直接线上折腾 Nginx 缓存和缩略图,可能导致间歇性大姨妈; 新发文章瞬间转载,甚至是整站采集,可能导致“降权...对于转载和采集,我也只能在 Nginx 加入 UA 黑名单和防盗链机制,略微阻碍一下了,但是实际起不到彻底禁止作用,毕竟整个天朝互联网大环境就是这样一个不好的风气,很多人都不愿意花时间、用心写文章,喜欢不劳而获的转载甚至是篡改抄袭...以上案例中的地址,我通过百度站长平台的 robots 检验结果都是被禁封的,真不知道百度怎么想的 所以,我决定用极端手段,彻底禁止这些不听话的蜘蛛抓取那些我不想收录的页面!...一致,既匹配了蜘蛛 UA,又匹配了禁止关键词的抓取,直接返回 403(如何返回 404,有知道的朋友请留言告知下,测试成功的朋友也敬请分享一下代码,我实在没时间折腾了。)...,可以参考自己的robots内容,每个关键词用分隔符隔开,需注意特殊字符的转义     $Deny_path  = '/\?

2K60

我的网站攻击了,运维大佬给了我自动封禁ip的脚本。

我的网站攻击了,发现友圈最近出现这种情况的还不少,真是神奇了,这事也能扎堆发生。...⽇志⽂件 #Nginx⽇志⽂件所在⽬录 todo 换成你自己的 LOG_PATH=/data/logs/nginx/ #获取昨天的⽇期 YESTERDAY=$(date -d "yesterday" +...%Y-%m-%d) #获取pid⽂件路径 todo 换成你自己的 PID=/var/run/nginx.pid #分割⽇志 mv ${LOG_PATH}access.log ${LOG_PATH}access.../blackip.sh 封禁效果 好了,妈妈再也不用担心我莫名其妙的攻击了。 思考 如果自己人的ip不小心被封了怎么办呢?...连403都不要那些坏人看到! 如果你也碰到类似的问题,欢迎复刻我的经验。 如果你有更好的方案,欢迎赐教我这个“攻击的萌新”。

72841

使用Nginx阻止别人域名跳转到自己服务器上

Nginx上设置禁止通过IP或者通过未设置的域名访问访问服务器,只能通过已绑定的域名访问,这样做是为了避免别人把未备案或者有隔离风险的域名解析到自己的服务器IP而导致服务器隔离,有以下解决方案:...比如别人通过ip或者未知域名访问你的网站的时候,你希望禁止显示任何有效内容,可以给他返回500或者403之类....就可以这样设置: server { listen 80 defaultt_server; return 403; } 也可以把这些流量收集起来,导入到自己的网站,只要做以下跳转设置就可以: server...name “jpeng.xyz” on 0.0.0.0:80, ignored the configuration file /usr/local/nginx/conf/nginx.conf syntax...is ok configuration file /usr/local/nginx/conf/nginx.conf test is successful 最后通过在listen 80 default;

4.4K20

Nginx配置静态文件服务从入门到精通

一、linux系统定义一个访问目录 在home目录新建一个files文件夹,里面存放文件供客户端访问 mkdir -p /home/files 二、Nginx 添加一个Location将刚才的目录暴露出去...autoindex on; } 这一段的意思是增加127.0.0.1:80/download的解析,路径指向/home/files文件夹。...listen 80; ​ location /download { #转到的Nginx文件目录 alias /home/files;...有可能是location后多加一个左斜杠/ 也有可以是指向的目录地址不存在 403 403 Forbidden 代表被禁止的,一般是三种情况导致的 1、目录权限不足 检查目录权限。...权限不足就将权限加上 chmod -R 755 /home/files 2、nginx.conf用户权限问题 vim /etc/nginx/nginx.conf 把 user 用户名 改为 user root

4.3K00
领券