实际上,Robots文件是一份互联网行业公约,该文件可以告诉蜘蛛哪些网页可以抓到,哪些不能抓到,哪些不能抓到,当然还可以对特定的搜素引擎进行限制,比如可以只让百度的蜘蛛抓到,而禁止360和搜狗的蜘蛛抓到。可检查是否存在下robots文件。
对于搜索引擎优化人员来说,会经常重视网站的一个数据,即网站输入量,网站输入量往往会引起一些动摇,一般20%以内的上下浮动是正常的。对于网站输入量下滑的起伏情况,很多站长都会忧心忡忡,那么接下来我们就来看看输入量下滑的处理方法。
a:检查站点的robots文件。
实际上,Robots文件是一份因特网专业协议,该文件可以告诉蜘蛛哪些页面可以访问,哪些没有价值,不允许访问蜘蛛访问抓取输入,当然也可以对特定的搜素引擎进行限制,比如可以只让百度的蜘蛛访问,而阻止360访问搜狗的蜘蛛。我们可以查一下robots文件是否被夹改过,也许是自己前次更新时不小心写错了指令,屏蔽了一些栏目目录,导致网站输入量下降。别笑,我已经干过这种蠢事了。
b:查看友情链接。
友情链接网站假如出现违法内容或者是投射百度算法,或者是其他原因导致网站被降权,那么我们也有可能被牵连,因为我们的网站就是指向这些网站,对这些网站进行投票。每个友情链接都要经常检查,提示我们,关于友情链接内短内短不用担心怕,剖析下对方为什么会内短而短的理由,能提示友情链接交流的小伙伴,网站内短的,让自己去处理吧。但是一旦因为对方网站的内容违法,快照绑架等情况,马上撤掉友链,不必犹豫。
③:检查是否有很多低劣的外链最近出现。
低劣的外链发多了,比如买了太多的单向链接等情况,也可能会导致网站输入量下降,网站减少。对这种情况的处理方法就是近期发一些高质量的外链和高质量的内容,其它没有什么好办法,到底外链多你总不能挨个去处理吧,估量一下自己都记不住。于是一开始就主张我们做外链,做高质量的外链,去一些权重较高的渠道发外链。如今外链效应已经逐渐减弱,不是高质量的外链基本上也没什么用,更何况很多高权重的渠道,你甚至连网页链接都会主动加个nofollow标签,让外链效应消失。
④:检查近期是否收集到过量的残余物品。
如果网站在一段时间内一向没有原创文章,也没有有价值的文章,全部都是恶意收集的文章,则网站输入量急剧下降也是正常的,查找引擎一开始输入,而没有建库维护,后边发现质量不好也就踢出去了。月末百度出飓风算法2.0也是冲击收集站,很多收集站都降低了权限,流量和关键词词量排名的暴降也是原因。提倡对我们原创的文章进行高质量的洗稿,在加部分优质合理的转载,关于转载的文章自己可以从头排起,适当地添加版面,图片,纠错文本,文章页面可以带原文链接(可纯文本),避免被飓风算法2.0弄伤。
⑤:检查自己的网站是否被快照绑架了,或者主机被黑了。
本人网站若是被快照位绑架或者被黑,这个我们都知道,用不了几天就会直线下滑。
检查蜘蛛抓取动作是否正常。
我们可以用下百度寻找资源渠道的模仿抓取试试看,看看自己的网站能否正常抓取,还有很多第三方的东西也可以模仿,非常方便。
⑦:网站改版。
这就是为什么其实不需要说明的原因,网站改版必然会有缺失的情况,我们可以自己写改版的规则,百度寻找资源渠道提交规则,尽最大可能把网站损失降到最小。
17:寻找百度的资源渠道回应。
对于网站输入量下滑较大的情况,我们虽能稍微剖析一下,但也经常找不到具体原因,此时能够做出回应的工作,百度工程师、客服人员都十分热心。假如有一点动摇,主张暂时不要回应,文章一开始就也是说20%以内也是正常的情况,这个找资源的渠道也是公布的。
⑧:检查是否有网站降级。
这实际上可以说,网站降权的原因太多了,输入量直线下降其实也是网站降权的一个体现,单就这一点来说并不确定,多少有点关联,之前写过一篇关于网站降权的文章,我们自己点击查看吧。
⑨:查看百度资源渠道的最新消息。
百度每一次算法更新,基本上都会在百度搜索资源的渠道公布,我们可以去看看最近有没有出新的算法,自己的网站是否射中了新算法,如果按照官方的说法进行修正就可以了。
归根结底总结:遇上网站输入量下滑,不要慌张,各种原因逐个找原因,大部分情况下原因还是可以找到的,当然血寒的原因还有很多,这里我们自己可以再收拾一下,避免下次遇上网站输入量下滑的情况不知道该怎么做,记住要有耐心,总能处理好的。