最近我发现搜索引擎收录了很多“夏末浅笑博客”的重复页面,当然了这跟我前一段时间,将站点根目录下的Robots.txt文件删除掉有直接的关系,Robots.txt文件是一个用来告诉搜索引擎执行Robots协议的文件,我们将Robots协议写在Robots.txt文件里面,告诉搜索引擎我的网站哪些页面可以收录,哪些页面不可以收录。
在Apache中配置禁止目录访问,即禁止游览列出的目录/文件列表的方法 访问网站目录时Apache默认配置为可列出目录/文件列表,即当你访问http://localhost时会列出相关的目录和文件列表,我们可以通过修改Apache配置文件httpd.conf来实现禁止列出目录/文件列表,方法如下: 1、打开apache配置文件httpd.conf 2、找到 <Directory /> Options Indexes AllowOverride
什么是 Robots 协议 Robots 是网站和搜引擎之间的一个协议。用来防止搜索引擎抓取那些我们不想被索引到的页面或内容。早期是为了防止搜索引擎抓取网站的一些隐私页面,不想公开展示的页面,Robots 的作用已经不在局限于网页的隐私了,如今已经是作为学习 SEO 的一个最基础的范畴,能够有效提高网站的健康度、纯净度,降低网站垃圾内容收录 User-agent:是定义搜索引擎的,指定搜索引擎的爬取程序,如果想定义所有搜索引擎请用 * , 记住他不能单独使用,他要配合前面两个语法使用(随便一个就行了) D
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定的内容。
HTTP 400 - 请求无效 HTTP 401.1 - 未授权:登录失败 HTTP 401.2 - 未授权:服务器配置问题导致登录失败 HTTP 401.3 - ACL 禁止访问资源 HTTP 401.4 - 未授权:授权被筛选器拒绝 HTTP 401.5 - 未授权:ISAPI 或 CGI 授权失败 HTTP 403 - 禁止访问 HTTP 403 - 对 Internet 服务管理器 的访问仅限于 Localhost HTTP 403.1 禁止访问:禁止可执行访问 HTTP 403.2 - 禁止访问:禁止读访问 HTTP 403.3 - 禁止访问:禁止写访问 HTTP 403.4 - 禁止访问:要求 SSL HTTP 403.5 - 禁止访问:要求 SSL 128 HTTP 403.6 - 禁止访问:IP 地址被拒绝 HTTP 403.7 - 禁止访问:要求客户证书 HTTP 403.8 - 禁止访问:禁止站点访问 HTTP 403.9 - 禁止访问:连接的用户过多 HTTP 403.10 - 禁止访问:配置无效 HTTP 403.11 - 禁止访问:密码更改 HTTP 403.12 - 禁止访问:映射器拒绝访问 HTTP 403.13 - 禁止访问:客户证书已被吊销 HTTP 403.15 - 禁止访问:客户访问许可过多 HTTP 403.16 - 禁止访问:客户证书不可信或者无效 HTTP 403.17 - 禁止访问:客户证书已经到期或者尚未生效 HTTP 404.1 -无法找到 Web 站点 HTTP 404- 无法找到文件 HTTP 405 - 资源被禁止 HTTP 406 - 无法接受 HTTP 407 - 要求代理身份验证 HTTP 410 - 永远不可用 HTTP 412 - 先决条件失败 HTTP 414 - 请求 - URI 太长 HTTP 500 - 内部服务器错误 HTTP 500.100 - 内部服务器错误 - ASP 错误 HTTP 500-11 服务器关闭 HTTP 500-12 应用程序重新启动 HTTP 500-13 - 服务器太忙 HTTP 500-14 - 应用程序无效 HTTP 500-15 - 不允许请求 global.asaError 501 - 未实现 HTTP 502 - 网关错误 用户试图通过 HTTP 或文件传输协议 (FTP) 访问一台正在运行 Internet 信息服务 (IIS) 的服务器上的内容时,IIS 返回一个表示该请求的状态的数字代码。该状态代码记录在 IIS 日志中,同时也可能在 Web 浏览器或 FTP 客户端显示。状态代码可以指明具体请求是否已成功,还可以揭示请求失败的确切原因。日志文件的位置在默认状态下,IIS 把它的日志文件放在 %WINDIRSystem32Logfiles 文件夹中。每个万维网 (WWW) 站点和 FTP 站点在该目录下都有一个单独的目录。在默认状态下,每天都会在这些目录下创建日志文件,并用日期给日志文件命名(例如,exYYMMDD.log)。HTTP1xx - 信息提示 这些状态代码表示临时的响应。客户端在收到常规响应之前,应准备接收一个或多个 1xx 响应。 • 100 - 继续。 • 101 - 切换协议。2xx - 成功 这类状态代码表明服务器成功地接受了客户端请求。 • 200 - 确定。客户端请求已成功。 • 201 - 已创建。• 202 - 已接受。 • 203 - 非权威性信息。 • 204 - 无内容。 • 205 - 重置内容。 • 206 - 部分内容。3xx - 重定向 客户端浏览器必须采取更多操作来实现请求。例如,浏览器可能不得不请求服务器上的不同的页面,或通过代理服务器重复该请求。 • 302 - 对象已移动。 • 304 - 未修改。 • 307 - 临时重定向。4xx - 客户端错误 发生错误,客户端似乎有问题。例如,客户端请求不存在的页面,客户端未提供有效的身份验证信息。 • 400 - 错误的请求。 • 401 - 访问被拒绝。IIS 定义了许多不同的 401 错误,它们指明更为具体的错误原因。这些具体的错误代码在浏览器中显示,但不在 IIS 日志中显示: • 401.1 - 登录失败。 • 401.2 - 服务器配置导致登录失败。 • 401.3 - 由于 ACL 对资源的限制而未获得授权。 • 401.4 - 筛选器授权失败。 • 401.5 - ISAPI/CGI 应用程序授权失败。 • 401.7 – 访问被 Web 服务器上的 URL 授权策略拒绝。这个错误代码为 IIS 6.0 所专用。 • 403 - 禁止访问:IIS 定义了许多不同的 403
因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。
对于为用户服务的大多数公司而言,把控用户权限是一件十分重要的事情。通过配置Nginx来禁止访问上传资源目录下的PHP、shell、Python等程序文件,这样用户即使上传了这些文件也没法去执行,以此来加强网站安全。
Apache默认在当前目录下没有index.html入口就会显示网站根目录,让网站目录文件都暴露在外面,是一件非常危险的事,例如:数据库密码泄露,隐藏页面暴露等严重安全问题!
原贴:http://blog.sina.com.cn/s/blog_68158ebf0100wr7z.html
网站遇到恶意镜像,是很烦人的,他们的作弊方法复制自己的网站。 我相信很多网站管理员都遇到过这些问题。 今天全百科教大家如何禁止对其网站的IP访问。
就是一个网站根目录的txt文本,需要自己建立的,目的就是告诉搜索引擎哪些页面可以抓取,哪些页面不准抓取。
.htaccess文件(或者”分布式配置文件”)提供了针对目录改变配置的方法, 即,在一个特定的文档目录中放置一个包含一个或多个指令的文件, 以作用于此目录及其所有子目录。作为用户,所能使用的命令受到限制。
WordPress 用的是 PHP 语言,禁止访客访问网站核心 PHP 文件能提高安全性。我们以 Nginx 的配置文件为例,来详细说明如何安全配置:禁用某些目录执行 PHP。
启用mac自带Apache & 虚拟主机配置 1. 启动Apache mac 自带 Apache,在系统的私有目录 /private/etc 下 sudo apachectl start 启动apache,浏览器中输入 http://localhost,看到 “It works” 说明启动成功 apache默认虚拟主机(网站根目录)目录:/Library/WebServer/Documents/ 2. 在apache中开启PHP 修改 httpd.conf 前先备份 -> httpd.conf.bank s
robots.txt 文件规定了搜索引擎抓取工具可以访问网站上的哪些网址,并不禁止搜索引擎将某个网页纳入索引。如果想禁止索引(收录),可以用noindex,或者给网页设置输入密码才能访问(因为如果其他网页通过使用说明性文字指向某个网页,Google 在不访问这个网页的情况下仍能将其网址编入索引/收录这个网页)。
这篇文章主要介绍了Apache配置参数deny和allow的使用实例,需要的朋友可以参考下
首先在appserv安装目录下找到httpd.conf文件 ./AppServ/Apache24/conf/httpd.conf 打开文件,找到 Options Indexes FollowSymLinks 将其修改为 Options FollowSymLinks ---- 以下内容均为网上摘抄,不保证正确,博主未经过测试 1. 禁止访问某些文件/目录 增加Files选项来控制,比如要不允许访问 .inc 扩展名的文件,保护php类库: <Files ~ ".inc$"> Order allow,deny
启用mac自带Apache & 虚拟主机配置 Write By CS逍遥剑仙 我的主页: www.csxiaoyao.com GitHub: github.com/csxiaoyaojianxian Email: sunjianfeng@csxiaoyao.com QQ: 1724338257 目录导航 启用mac自带Apache & 虚拟主机配置 1. 启动Apache 2. 在apache中开启PHP 3. 查看 phpinfo() 4. 设置虚拟主机和
Robots 协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过 Robots 协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots.txt 是搜索引擎访问网站的时候要查看的第一个文件。
自带的php-fpm在/usr/sbin目录下, 通过brew安装的php把php-fpm放到了/usr/local/sbin目录, 默认启动PHP-fpm时系统会找到/usr/sbin目录的文件,他的默认php-fpm.conf为/private/etc目录,默认上不存在的
200 – OK 201 – Created 202 – Accepted 203 – Non-Authoritative Information (for DNS) 204 – No Content 205 – Reset Content 206 – Partial Content
基本上,所有公开你能访问到的网站都有 Robots.txt。可能只是你没有注意到而已,比如淘宝的:https://www.taobao.com/robots.txt、百度网盘的:https://pan.baidu.com/robots.txt。
Nginx安全基线 NO.1 禁止某些文件类型的访问 原因 某些文件不小心传如web目录后存在很大风险 解决 location *.(txt doc docx rar zip)$ root /var/www/www.xxx.xxx; Deny all; } NO.2 禁止访问某目录 原因 一些敏感目录禁止直接访问 解决 location ^/(web-inf)/{ Deny all; } NO.3 禁止某个IP或网段访问 原因 限制某些恶意用户的IP或网段 解决 location /{ Deny xxx
如果想添加多个网站,添加多个server{}并绑定不同的域名,设置不同的根目录即可。
文章目录 1. 访问控制 1.1 权限控制指令 1. 准备工作 2. 默认访问权限 3. 禁止所有用户的访问 4 . 只允许指定用户访问 5. 不同块间的权限指令优先级 1.2 访问控制典型应用 1. 精准匹配 2. 正则匹配 3. 最大前缀匹配 location / {} 与location =/ {} 的区别 4. 禁用正则匹配 root 与 alias 的时区别 1. 访问控制 访问控制是网络安全防范和保护的主要策略,其任务是保证网络资源不被非法访问 。 Nginx 作为 Web 服务器的后起之
除特别注明外,本站所有文章均为慕白博客原创,转载请注明出处来自https://geekmubai.com/programming/146.html
目的 防范因为主机没有加固,造成储存在开发服务器中的源代码和测试数据被黑客获取。 范围 本规范适合于开发服务器安全加固配置。 MYSQL 1. 下载位置 MySQL程序的下载,应该从MySQL官方提供的下载页面或者安全平台部第三方软件统一下载前台(建设中)下载。MySQL官网地址为: http://www.mysql.com/downloads/mysql/ MariaDB则在 https://downloads.mariadb.org/ 1.1 下载后的校验 下载的同时,需记录下官方提供的文件hash(推
当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格式:Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成: 1) 一个User-Agent(用户代理)字符串行; 2) 若干Disallow字符串行。 记录格式为:<Field> ":" <value> 下面我们分别对这两个域做进一步说明。 User-agent(用户代理): User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot 一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的限制。当然了,如果要指定所有的robot,只需用一个通配符"*"就搞定了,即:User-agent: * Disallow(拒绝访问声明): 在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目录。例如"Disallow: email.htm"对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而"Disallow: /cgi-bin/"则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如上例中"Disallow: /cgi-bin/"声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而"Disallow:/bob"则拒绝搜索引擎对/bob.html和/bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空,则说明该网站的所有部分都向搜索引擎开放。 空格 & 注释 在robots.txt文件中,凡以"#"开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题: 1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理解"Disallow: bob #comment"这样一条指令。有的Spiders就会误解为Disallow的是"bob#comment"。最好的办法是使注解自成一行。 2) RES标准允许在一个指令行的开头存在空格,象"Disallow: bob #comment",但我们也并不建议大家这么做。 Robots.txt文件的创建: 需要注意的是,应当在UNIX命令行终端模式下创建Robots.txt纯文本文件。好的文本编辑器一般都能够提供UNIX模式功能,或者你的FTP客户端软件也“应该”能够替你转换过来。如果你试图用一个没有提供文本编辑模式的HTML编辑器来生成你的robots.txt纯文本文件,那你可就是瞎子打蚊子——白费力气了。 对RES标准的扩展: 尽管已经提出了一些扩展标准,如Allow行或Robot版本控制(例如应该忽略大小写和版本号),但尚未得到RES工作组的正式批准认可。 附录I. Robots.txt用法举例: 使用通配符"*",可设置对所有robot的访问权限。 User-agent: * Disallow: 表明:允许所有搜索引擎访问网站下的所有内容。 User-agent: * Disallow: / 表明:禁止所有搜索引擎对网站下所有网页的访问。 User-agent: * Disallow: /cgi-bin/Disallow: /images/ 表明:禁止所有搜索引擎进入网站的cgi-bin和images目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。 User-agent: Roverdog Disallow: / 表明:禁止Roverdog访问网站上的任何文件。 User-agent: Googlebot Disallow: cheese.htm 表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。 上面介绍了一些简单的设置,对于比较复杂的设置,可参看一些大型站点如CNN或Looksmart的robots.txt文件(www.cnn.c
什么是 .htaccess 文件? 概述来说,htaccess 文件是 Apache 服务器中的一个配置文件,它负责相关目录下的网页配置。 通过 htaccess 文件,可以帮我们实现:网页 301 重定向、自定义 404 错误页面、改变文件扩展名、允许/阻止特定的用户或者目录的访问、禁止目录列表、配置默认文档等功能。 理解 WordPress 的 htaccess # BEGIN WordPress #这是一行注释,表示 WordPress 的 htaccess 从这里开始 #如果 Apache
Web渗透测试大家都耳熟能详,但是针对应用虚拟化的渗透测试或许大家比较少接触,而且网上也没有相关的资料。作为前沿攻防团队,本期技术专题将结合过往的项目经验,针对应用虚拟化技术给大家介绍一下相关的攻防技术。 首先介绍一下什么是应用虚拟化,其实应用虚拟化是指应用/服务器计算A/S架构,采用类似虚拟终端的技术,把应用程序的人机交互逻辑(应用程序界面、键盘及鼠标的操作等)与计算逻辑隔离开来,服务器端为用户开设独立的会话空间,应用程序的计算逻辑在这个会话空间中运行,把变化后的人机交互逻辑传送给客户端,并且在客户端相应
对于新网站,百度等搜索引擎会有一定的扶持,所以在网站上线之前一定要做好规划,为了网站往什么领域发展、所涉猎的内容等都要提前想好。
如果我们的网站有一个目录,可以上传图片,可能保不准有些别有用心的人会通过一些手段,上传php文件到这个目录下。那么这个php文件就会被apache执行,如果这个php文件里写的是恶意代码,你的服务器自然就会遭到***。毕竟开放了这样一个权限,肯定会被人上传***文件,如果被夺取了你的服务器root权限就很危险了。
[errorbox]文章转载自:https://c7sky.com/htaccess-guide.html[/errorbox]
在调试Web服务器时,会遇到各种错误代码,让人摸不着头脑,单如果知道了这些代码代表什么意思?很多问题就迎刃而解了,对我们的调试也会有很大帮助。
随着使用 PHP 环境的用户越来越多,相关的安全问题也变得越来越重要。PHP 环境提供的安全模式是一个非常重要的内嵌安全机制,PHP 安全模式能有效控制一些 PHP 环境中的函数(例如system()函数),对大部分的文件操作函数进行权限控制,同时不允许对某些关键文件进行修改(例如 /etc/passwd)。但是,默认的 php.ini 配置文件并没有启用安全模式。
1.软件版本:PHP版本应该从PHP官方提供的下载页面下载,注意不要下载beta版本。 PHP官网下载地址为:http://www.php.net/downloads.php 2.控制脚本访问权限:PHP默认配置允许php脚本程序访问服务器上的任意文件,为避免php脚本访问不该访问的文件,从一定程度上限制了php木马的危害,需设置php只能访问网站目录或者其他必须可访问的目录。 /usr/local/apache2/web/为网站根目录,打开php.ini,安全加固配置方式如下: open_basedi
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又稱元資料)。
使用命令“chmod 600 /etc/httpd/conf/httpd.conf”设置配置文件为属主可读写,其他用户无权限
在这份说明文档中,OpenAI还提供了更简单的爬虫阻止方式,即修改robots.txt。
-vsftpd.user_list文件需要与vsftpd.conf文件中的配置项结合来实现对于vsftpd.user_list文件中指定用户账号的访问控制:
Robots协议 什么是robots? Robots文件:网站和搜索引擎之间的一个协议。 用来防止搜索引擎抓取那些我们不想被搜索引擎看到的隐私内容。 Robots文件告诉蜘蛛什么是可以被查看的。 Robots是蜘蛛爬行网站第一个要访问的文件。 一:搜索引擎蜘蛛爬虫的原理 网络蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其他链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。 当我们不想让搜索引擎抓
今天安装dedecms,配置Nginx,然后生成一键生成静态页面,然后就没有然后了,所有栏目页面都显示nginx 403 forbidden。 一般来说nginx 的 403 Forbidden errors 表示你在请求一个资源文件但是nginx不允许你查看。 403 Forbidden 只是一个HTTP状态码,像404,200一样不是技术上的错误。 哪些场景需要返回403状态码的场景? 1.网站禁止特定的用户访问所有内容,例:网站屏蔽某个ip访问。 2.访问禁止目录浏览的目录,例:设置autoinde
vsftp安装 创建用户 并限定用户在自己的目录 1、查看是否已经安装了vsftpd vsftpd -version 2、安装vsftpd(CentOS7) yum install -y vsftpd 3、新建FTP目录 创建的FTP目录如下: /data/KodServer/data/User/tomas/home 4、创建新用户 ftpname为你为该ftp创建的用户名,/data/KodServer/data/User/tomas/home 为登录进去后的位置 useradd -d /data/KodServer/data/User/tomas/home -s /bin/bash ftpname 5、为新建的用户设置密码 passwd ftpname 【备注:用cat etc/passwd可以查看当前系统用户】 6、设置主目录(更改登录时看到的目录,看个人需要更改,如果第4步已设置好,此步可忽略) usermod -d /data/KodServer/data/User/tomas/home ftpname 7、添加用户组(这步可忽略) groupadd ftpgroup 8、防火墙添加FTP服务 firewall-cmd --permanent --zone=public --add-service=ftp firewall-cmd --reload 解决办法: ①、查看ftp的Selinux状态:sestatus -b | grep ftp ②、在结果中可以看到: ftp_home_dir off ③、将状态改为on:setsebool -P ftp_home_dir on ④、重启vsftp服务:systemctl restart vsftpd.service setsebool -P ftpd_full_access on systemctl restart firewalld.service 9、配置只能访问自身目录(/data/KodServer/data/User/tomas/home),不能访问其他路径 修改/etc/vsftpd.conf cd /etc/vsftpd/ vi vsftpd.conf #去掉前面的注释 chroot_local_user=YES ascii_upload_enable=YES ascii_download_enable=YES #文件末尾添加 allow_writeable_chroot=YES 保存,重启vsftpd 设置开机启动: systemctl enable vsftpd.service 启动vsftpd服务 systemctl start vsftpd.service 禁止ftp用户通过22端口登录ftp服务器: 由于需要限制ftp用户在自己的目录,在21端口下没有问题,但当ftp用户用sftp登录时,还是可以访问上级目录,于是禁止ftp用户ssh登录,切断22端口的通信。 首先,执行如下命令,找到nologin的shell: vi /etc/shells 可以看到禁止登录的shell文件为/usr/sbin/nologin,然后执行如下命令: usermod -s /usr/sbin/nologin tomas 如果要恢复tomas的ssh登录,执行如下命令: usermod -s /bin/bash tomas
php的安全模式是个非常重要的内嵌的安全机制,能够控制一些php中的函数,比如 system(),同时把很多文件操作函数进行了权限控制,也不允许对某些关键文件的文件,比如 /etc/passwd
$ service vsftpd start && systemctl restart vsftpd.service
基于网站安全与盈利的因素,站长并不希望某些目录或页面被抓取和收录,比如付费内容、测试阶段的页面及复制内容页面等。
Linux文件权限的更改: -Linux系统中的每个文件和目录都有访问许可权限,用它来确定谁可以通过何种方式对文件和目录进行访问和操作。 -文件或目录的访问权限分为只读(r),只写(w)和可执行(x)三种。 -有三种不同类型的用户可对文件或目录进行访问:文件所有者(u),同组用户(g)、其他用户(o)。 基本权限: chmod u=rwx,g=rwx,o=rwx /目录 (给目录的属主,属组和其他用户所有权限) chmod u+r(u-r/g+w/o-r...) /目录 (给目录的属主只读权限
看到脚本语言是PHP的,我就习惯性的在域名后面加上robots.txt,robots.txt是什么文件呢?
nginx rewrite 伪静态配置参数和使用例子 附正则使用说明 正则表达式匹配,其中: * ~ 为区分大小写匹配 * ~* 为不区分大小写匹配 * !~和!~*分别为区分大小写不匹配及不区分大小写不匹配 文件及目录匹配,其中:
useradd –M –s /sbin/nologin admin hr1 act1 eng1
领取专属 10元无门槛券
手把手带您无忧上云