腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在htaccess中称为
robots.txt
或mod_rewrite
、
、
我不确定mod_rewrite和
robots.txt
的
订单是什么。/index.php?id=123 to /home/index.php?id=444User-agent: *有/home
的
网站会被搜索引擎索引吗?
浏览 4
提问于2011-03-15
得票数 2
回答已采纳
3
回答
担心
蜘蛛
反复点击高需求页面
由于一些相当奇怪
的
架构考虑,我不得不设置一些真正应该作为控制台应用程序作为网页运行
的
东西。它
的
工作是从我们
的
站点数据中编写大量
的
文本文件和xml提要,以供各种其他服务使用,所以很明显,它需要一些时间才能运行,并且需要相当多
的
处理器。然而,在我部署它之前,我非常担心它可能会被
蜘蛛
之类
的
东西反复攻击。重写数据是可以
的
,但是由于显而易见
的
原因,在这个页面上持续
的
点击将会触发性能问题。 这是我应该担心<em
浏览 0
提问于2010-04-15
得票数 1
回答已采纳
1
回答
当进入我
的
网站时,什么是url机器人搜索引擎?
、
、
当进入我
的
网站时,什么是url搜索引擎机器人?例如,我在.htaccess中添加了这段代码我需要在这个代码中添加url ( msn,yahoo,bing )机器人 <Files
robots.txt
浏览 0
提问于2018-09-17
得票数 0
2
回答
蜘蛛
只在站点地图中爬行urls吗?
、
、
、
、
我在我
的
网站上有一些限制部分供
蜘蛛
爬行。或者我应该将下面的元标记添加到我想限制访问
的
页面中?
浏览 1
提问于2014-10-29
得票数 0
回答已采纳
3
回答
我应该禁止
蜘蛛
吗?
、
、
我一直在看
的
rails模板脚本会自动在
robots.txt
中添加User-Agent:和Dissalow:,从而禁止所有
蜘蛛
进入网站 禁止
蜘蛛
有什么好处,你为什么要这么做?
浏览 0
提问于2010-10-04
得票数 1
回答已采纳
1
回答
如何避免GAE应用程序流量被滥用?
我将开发一个简单
的
CMS网站上
的
谷歌应用引擎之上使用webapp2。我想知道如何避免恶意
的
数据刮板来故意获取页面,从而使应用程序消耗超出免费配额
的
流量(我认为每天1GB ),从而导致Google向我收取垃圾流量。谢谢
浏览 0
提问于2013-06-24
得票数 1
1
回答
是否有理由不将我
的
管理目录放在
robots.txt
中?
、
、
这可能是被询问和回答,因为我不知道什么是最好
的
方式来表达这一点。 我想确保搜索
蜘蛛
不索引我
的
网站
的
管理端。不幸
的
是,如果我将路径放入我
的
robots.txt
文件中,我就会交出cookie jar。我已经有相当多
的
“访客”,他们从抓住
robots.txt
开始。显然,不合法
的
蜘蛛
会忽略
robots.txt
,但是我想阻止Google和Bing在搜索结果中破坏我
的
管理目录
浏览 0
提问于2019-01-25
得票数 0
回答已采纳
3
回答
用Yoast
的
Seo插件设置
robots.txt
、
、
、
、
我正在为我
的
wordpress网站寻找一个体面的
robots.txt
解决方案,经过一些搜索,我发现Yoast
的
SEO插件提供了一个完整
的
SEO解决方案,包括指数化。我设置它不索引以下页面:搜索结果,登录和注册页面,所有管理页面,基于日期
的
档案和标签档案。
浏览 0
提问于2011-01-23
得票数 0
1
回答
刮擦-Splash不呈现此页面
、
、
、
、
网址:class planningApplications(scrapy.Spider): }下面是我在我
的
settings.
浏览 0
提问于2018-07-20
得票数 1
3
回答
Robots.txt
:仅允许主SE
、
有没有办法配置
robots.txt
,使网站只接受来自谷歌,雅虎!还有MSN
蜘蛛
呢?
浏览 43
提问于2009-03-22
得票数 24
回答已采纳
1
回答
Alexa审计报告显示,尽管
robots.txt
中
的
特定爬虫“允许: /”,但所有爬虫都被阻塞。
、
、
、
我已经做了一个SEO审计由Alexa为我
的
网站。据报道,由于我
的
robots.txt
,所有的爬虫都被封锁在我
的
网站上。我
的
robots.txt
看起来就像Disallow: / Allow: / Allow我很困惑为什么Alexa仍然这样报道,所有的爬虫都被封锁了,即使Alexa自己使用了
robots.txt
的
权
浏览 0
提问于2016-06-23
得票数 3
1
回答
如何限制Googlebot
的
爬行率?
、
、
、
我
的
一台服务器出了问题。Google会打开与apache服务器
的
大量http连接,并且基本上会执行slowloris攻击。我已经禁止谷歌访问通过
robots.txt
保存在服务器上
的
任何内容,但它对疯狂
的
连接量没有任何影响。我该怎么办?
浏览 0
提问于2011-07-03
得票数 1
1
回答
是否有机会在不使用
robots.txt
或.htaccess
的
情况下阻止专用服务器上
的
图像
蜘蛛
/机器人?
、
、
、
我们知道,我们可以阻止某些
蜘蛛
使用
robots.txt
或.htaccess或通过ApacheConfigurationFilehttpd.conf爬行网站页面。但这可能需要编辑大量
的
站点上
的
一些专用服务器和机器人仍然会“访问”和消耗资源。有没有其他“安全”
的
方法来阻止这些IMG
蜘蛛
从像windows服务器这样
的
服务器上
的
根目录?
浏览 0
提问于2013-04-30
得票数 0
5
回答
去除
robots.txt
、
将删除
robots.txt
使该网站再次“可搜索”。 出于好奇,您是否有一个
robots.txt
来避免索引,但改变了您
的
想法,并希望得到索引。
浏览 0
提问于2011-01-18
得票数 4
1
回答
百度
蜘蛛
不服从DNS TTL
、
、
4月16日,我把我
的
网站从一个VPS移到另一个VPS。今天是第三天,旧服务器上
的
访问日志显示百度
蜘蛛
的
点击量。 已经超过60个小时了,但是为什么这个爬虫还会撞到旧
的
IP地址呢?
浏览 0
提问于2014-04-19
得票数 1
回答已采纳
3
回答
如何从所有网络中屏蔽我
的
网站
没有搜索引擎应该知道我
的
网站,只有与链接的人应该访问它。有人能推荐最好
的
点子吗?因为我要在上面分享我
的
办公室数据。
浏览 0
提问于2011-03-29
得票数 1
2
回答
如何在Scrapy框架中使用RobotsTxtMiddleware?
、
、
它需要确保Scrapy尊重
robots.txt
。它需要在设置中设置ROBOTSTXT_OBEY = True,然后Scrapy将尊重
robots.txt
策略。我做了然后跑了
蜘蛛
。在调试中,我看到了对
的
请求。 我如何从robot.txt中看到和理解规则?
浏览 0
提问于2015-05-23
得票数 6
回答已采纳
3
回答
我如何告诉谷歌忽略我
的
子域名?
、
我搜索了一下,找到了我网站
的
链接.两次。它们是完全一样
的
,除了一个是www和另一个是静态
的
。我如何告诉google忽略我
的
静态域中
的
一切?
浏览 0
提问于2011-04-06
得票数 2
1
回答
在
robots.txt
中使用asteriks
、
如果
robots.txt
上没有星号,
蜘蛛
能爬行这些网站吗?User-agent: * Disallow: .
浏览 0
提问于2016-10-13
得票数 1
回答已采纳
2
回答
如何控制可访问
的
搜索引擎?
、
有人问我,是否有可能在搜索引擎中限制搜索结果。这里有一个例子:我有一个网站,我希望它只在yahoo,google,bing和ask搜索引擎中显示。有没有办法通过使用任何元标签或通过其他方式来实现呢?
浏览 0
提问于2010-08-17
得票数 0
点击加载更多
相关
资讯
网站建设完成后, 做seo必须知道的专业知识之--robots协议
网站建设完成后, 做seo必须知道的专业知识之--蜘蛛程序通道
robots.txt文件原理、规则和写法
多通道时间间隔测量模块在时频行业的重要性、时间间隔测量仪、多通道时间间隔测量
如何书写网站robots文件,让蜘蛛有自知之明?
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
云直播
活动推荐
运营活动
广告
关闭
领券