首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

SEO分享:彻底禁止搜索引擎收录非首选域名的方法

事实说明,百度对 301 很不敏感,这个问题困扰了我很久,前往百度站长平台多次投诉无果,终于忍无可忍,决定将带 www 的域名做了禁止收录处理,我已做好 www 域名全线被 T 的心里准备。...曾多次搜索过如何禁止搜索引擎收录带 www 或不带 www 的域名的方法,但是都是一些做 301 设置的方法,看来还不够彻底!...下面,我就来分享一下彻底禁止搜索引擎收录非首选域名的方法: 提前说明:如果正好和张戈博客相反:你的首选域名是带 www 的,那下面的代码只需要依葫芦画瓢的修改下即可,我就不赘述了。...php if($_SERVER['HTTP_HOST'] == '禁止收录域名1') if($_SERVER['HTTP_HOST'] == '禁止收录域名2') { ?...我只是看不惯百度的傻逼收录行为! 以上就是禁止搜索引擎收录非首要域名的全部教程了,希望对和我一样苦恼的站长有所帮助。

4.4K70
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    巧用网站禁止收录机制屏蔽蜘蛛抓取页面

    基于网站安全与盈利的因素,站长并不希望某些目录或页面被抓取和收录,比如付费内容、测试阶段的页面及复制内容页面等。...尽管在网站建设的过程中,使用 JavaScript、Flash 链接及Nofollow属性等都能让搜索引擎蜘蛛望而却步,而导致页面不被收录。...但在某些情况下搜索引擎是能够读取他们的,基于网站排名考虑,我们建议慎用 JavaScript、Flash 链接及Nofollow属性屏蔽收录。...要确保网站某些目录或页面不被收录,需要正确使用 robots 文件或Meta Robots 标签来实现网站的禁止收录机制。...最简单的 meta robots 标签格式为: 效果是禁止所有搜索引擎索引本页面,禁止跟踪本页面上的链接。

    1.5K30

    如何设置让网站禁止被爬虫收录?robots.txt

    robot.txt只是爬虫禁抓协议,user-agent表示禁止哪个爬虫,disallow告诉爬出那个禁止抓取的目录。 如果爬虫够友好的话,会遵守网站的robot.txt内容。...一个内部业务系统,不想被爬虫收录。 请问该如何做 网站建设好了,当然是希望网页被搜索引擎收录的越多越好,但有时候我们也会碰到网站不需要被搜索引擎收录的情况。...比如,要启用一个新的域名做镜像网站,主要用于PPC 的推广,这个时候就要想办法屏蔽搜索引擎蜘蛛抓取和索引我们镜像网站的所有网页。...因为如果镜像网站也被搜索引擎收录的话,很有可能会影响官网在搜索引擎的权重。 以下列举了屏蔽主流搜索引擎爬虫(蜘蛛)抓取/索引/收录网页的几种思路。

    1.7K30

    域名后缀对网站的收录排名有影响么?

    域名后缀是指不同结尾的域名,百度官方工作人员曾在百度站长大会中明确,使用何种形式的域名后缀对百度网页搜索没有影响,但域名后缀也需要考虑方便用户记忆,域名后缀会间接影响网站收录排名。...如果没有进行备案,是不能提交收录信息的。 未备案的域名是有新站观察期,需要慢慢熬,正常收录也得半年时间了。 目前cc,org均不支持备案了,所以在购买域名的时候一定要查询下能否备案。...CN域名曾经有大量垃圾站群的出现,使得百度对于CN域名收录变得较为谨慎了。...后来CN域名后缀注册受到限制,使得CN域名使用的门槛高了,CN域名的网站总体质量也都相对提高了,慢慢的百度才恢复CN的正常收录域名受百度歧视的例子,都是国内站长喜欢选择便宜域名导致的结果。...一个正常的域名会增加用户对网站的信任度和认可度,尽管在收录和排名上没有优势。 但是搜索引擎会正常给予网站收录和排名,算法更新非主流后缀域名可能就是最开始受影响的网站。

    8.6K41

    安全:nginx禁止ip访问, 只能通过域名访问

    我的一个地方站(www.cxzaixian.com)曾经遇到过被无故断网的事情,阿里云给的原因是绑定了未备案的域名。...归结到技术层面,原因是如果网站允许ip直接访问,那么即使没有在nginx配置中解析恶意的未备案域名,这个域名也是可以访问到你的网站。...相关部门进行核查时,会以为你为未备案域名提供主机服务,后果就是封掉的ip。所以,你需要禁止ip访问,只允许你自己配置的server模块的server_name访问。...因为本文是说明怎么在nginx服务器配置禁止ip访问。...如果把ip访问和未解析域名访问转到你自己的域名,从而带来一些额外流量,则如下配置(logo条纹挡住的词是:permanent): ?

    10.9K30

    限定某个目录禁止解析php,限制user_agent,php相关配置

    笔记内容: 11.28 限定某个目录禁止解析php 11.29 限制user_agent 11.30/11.31 php相关配置 笔记日期: 11.28 限定某个目录禁止解析php ?...要禁止php解析,首先配置虚拟主机配置文件,加上以下内容:        php_admin_flag engine...常识:在服务器中存放静态文件的目录,99%是不允许存放php等文件的,所以不用担心禁止解析的问题。 11.29 限制user_agent ?...所以为了安全起见也要把phpinfo给禁止掉: ? 禁止phpinfo后,测试一下看看能不能解析,显示如下内容就是这个函数已经被禁止解析了: ?...open_basedir是一个安全选项,如果你一台服务器上跑了n多个站点,保不准某个站点的代码有问题写得比较差漏洞比较多,所以如果这个站点被黑了,被人拿到了权限后继续***的话,可能会***到其他的站点

    1.1K10

    如何禁止网站内容被搜索引擎收录的几种方法讲解

    通常做网站的目标就是让搜索引擎收录,扩大推广面,但是如果你的网站涉及个人隐私或者机密性非公开的网页而需要禁止搜索引擎收录抓取的话,该如何操作呢?...比如淘宝网就是禁止搜索引擎收录的一个例子,本文将教你几种做法来实现屏蔽或禁止搜索引擎收录抓取网站的内容。...搜索引擎蜘蛛不断爬行互联网,如果我们网站没有做出禁止搜索引擎收录的操作,很容易就会被搜索引擎收录。那么下面介绍一下怎么样禁止搜索引擎收录网站内容。 ?...如果只禁止百度搜索引擎收录抓取网页 1、编辑robots.txt文件,设计标记为: User-agent: Baiduspider Disallow: / 以上robots文件将实现禁止所有来自百度的抓取...如何只禁止Google搜索引擎收录抓取网页,方法如下: 编辑robots.txt文件,设计标记为: User-agent: googlebot Disallow: / 第二种、网页代码方法 在网站首页代码

    8.2K40

    为什么旧域名建设的网站不收录 如何解决这个问题

    现在很多的人在建设网站的时候会选择用一些老域名,老域名也就是曾经被用过的网站,也曾经被各种搜索引擎收录其中。...可是有些网站建设者却发现了一个问题,用旧的域名建设的网站,搜索引擎却不收录网站,为什么旧域名建设的网站不收录呢? 为什么旧域名建设的网站不收录 对于为什么旧域名建设的网站不收录,可能有下面几个因素。...一个可能是这个旧域名因为某些违背互联网政策的原因被惩罚过,上了某些黑名单,也可能存在过灰色污染或者违规操作。对于有黑历史的域名,搜索引擎可能是不收录的。...还有一种可能就是网站的内容带有一些敏感的内容,被搜索引擎排除出去了所以导致无法收录。 如何解决这个问题 上面回答了为什么旧域名建设的网站不收录,也提到了它的原因,那么这个问题该如何解决呢?...以上就是为什么旧域名建设的网站不收录的相关知识,知道了原因就可以对症下药,老域名的优势还是比较多的,更容易被蜘蛛抓取。所以合理利用旧域名也是非常需要智慧的。

    1.1K20

    SEO分享:彻底禁止搜索引擎抓取收录动态页面或指定路径的方法

    最近张戈博客收录出现异常,原因并不明朗。...明明 robots 里面加入了禁止抓取这些动态地址和某些路径,但是蜘蛛依然每天抓取,而且还收录了!收录也没事,关键收录了动态地址居然不收录静态地址了??这是要闹咋样啊? 案例①: ? 案例②: ?...以上案例中的地址,我通过百度站长平台的 robots 检验结果都是被禁封的,真不知道百度怎么想的 所以,我决定用极端手段,彻底禁止这些不听话的蜘蛛抓取那些我不想被收录的页面!...$_SERVER['QUERY_STRING'];     $Spider_UA  = '/(spider|bot|)/i'; //定义需要禁止的蜘蛛UA,一般是spider和bot     //禁止蜘蛛抓取的路径...好了,本文就分享到这,这种做法和张戈博客之前分享的《SEO 分享:彻底禁止搜索引擎收录非首选域名的方法》一样,属于极端优化做法,实施后,我们的索引肯定会大量下降,因为很多垃圾索引或收录都将被删除,但是这是良性的做法

    2.1K60

    怎样用python爬虫实现自动监测百度是否收录域名

    怎样用python爬虫实现自动监测百度是否收录域名 在一些新站点上线时,具有SEO意识的公司/人往往会非常关注自己的网站(域名)是否已经被百度收录了,因为只有百度能搜索得到,你的网站才是真正意义上的在这个世界上存在了...那怎样确认自己的站点是否被百度收录呢?...最直接的办法当然是直接搜索网站名称(通常是首页的标题title),但理论上来说,这个办法并不准确,因为有可能已经收录了,但因为权重问题,排名靠后,所以理论上你得将所有搜索结果页都翻遍了都没有才能确认是没收录...对seo有所了解的人肯定会知道另一个命令:site:xxx.com,就能将该站点已经收录的所有页面列出来,是精准的,但人的精力是有限的,时不时跑来看一下是否收录浪费时间,能不能通过机器做这个事情呢?...这里就达到了自动监控的目的,非常方便智能,下面分享下实例代码: 首先得先安装requests和lxml两个模块 pip install requests pip install lxml 以下是具体的代码 #通过抓取某个域名

    96220
    领券