301重定向 网站SEO中权重转移的基本操作

作为一名普通用户,在浏览网页时,通过浏览器向当前网站服务器发送浏览请求,然后服务器返回一个转移跳转的状态码,接着将用户引导进入另外一个网址。这种状态码是301,301重定向不仅仅对用户适用,对搜索引擎同样适用。301重定向的目的和做法,安邦运维为大家分享。

一、为什么要做301重定向

301重定向的目的,主要是为了降低因为网站改版、服务器错误等因素造成的网页地址更改对SEO造成的影响。

依据HTTP协议的301指令,能引导爬虫将权重和流量转移到新的网址,除了能提升用户体验度,还能在网站改版初期也能获得不错的权重和关键词排名。

二、做301重定向的四种情况

1、带WWW的网址和不带WWW的网址

比如你的网站是ruangseo.com,如果域名www.ruangseo.com和ruangseo.com都指向了同一网站,那么搜索引擎就会认为这是两个网站,收录量和排名都不一样,由此会造成权重和流量分散,对网站SEO而言不是太友好。

2、网站改版造成的网址变化

改版以后的网站,网址URL链接可能会跟之前有所差别,如果你旧网站的文件已经被删除,搜索引擎仍然会循着之前的网址来访问这个文件。这样就会造成死链,不利于整站的SEO,为了减少这种情况的损失,可以手动添加301重定向将旧网址重定向到新的URL链接。

3、程序错误

程序错误会造成一个内容对应多条链接的情况,为了集中权重,需要使用301重定向。

4、域名的迁移

域名迁移到新域名,能减少流量、权重和排名下降的损失。

三、如何实现301重定向

1、用ASP代码实现301重定向

<%

Response.Status=’’301MovedPermanently” 

Response.AddHeader”Location”,”www.ruangseo.com” 

%>

2、IIS中的301重定向

  • 打开Internet信息服务,然后点击右键要跳转的文件夹,在选择快捷菜单中的选择“属性”命令。
  • 在弹出对话框中,找到“链接到资源时的内容来源”,选择“重定向到URL”,在下面的文本框中输入要跳转到的页面。
  • 同时将“客户端定向到”下面的“资源的永久重定向”复选框中。
  • 点击“应用”按钮。

3、ColdFusion中的301重定向  

<.cfherdername=”Location”value=”http://www.ruangseo.com”>

4、用PHP实现的301重定向 

<? 

Header(“HTTP/1.1301Movedpermanently”); 

Header(“Location:www.ruangseo.com”); 

5、用ASP.NET实现301重定向

Privatevoidpage_Load(objectsender,System.EcenArgse) 

﹛ 

Response.Status=”301MovedPermanently”; 

Response.AddHeader(“Location”,http://www.ruangseo.com”);

四、提交百度

百度的资源平台-优化与维护-网站改版,改版规则的新旧链接使用301重定向。官方的解释是,站点目录和域名发生变化时,如果要让百度快速收录变化后的链接,用这个工具能加速百度对新旧链接的替换。

301重定向操作并不复杂,但是容易被很多站长忽略,以上是笔者对于301重定向的理解和实施方法总结,仅供参考。

原文链接:https://www.ruangseo.com/seowebsite/25.html

编辑于

相关文章

来自专栏Web技术布道师

php执行系统外部命令

11220
来自专栏数据云团

Django源码学习-6-URL 路由

Django网络应用开发的5项基础核心技术包括模型(Model)的设计,URL 的设计与配置,View(视图)的编写,Template(模板)的设计和Form(...

8640
来自专栏知识分享

1-开发共享版APP(搭建指南)-快速搭建到自己的服务器

http://www.mnif.cn/appapk/IotDevelopmentVersion/20190730/app-debug.apk

21820
来自专栏爱写Bug

周末了,围观知乎福利话题,放松一下。

女生身材好是什么体验?:https://www.zhihu.com/question/328457531

6840
来自专栏keinYe

外行学 Python 爬虫 第八篇 功能优化

在前一篇中讲了如何开启多线程来加快爬虫的爬取速度,本节主要对爬虫爬取内容机型优化,将生产商信息单独独立出来作为一张数据库表,不再仅仅是存储一个生产商的名称,同时...

7520
来自专栏Web技术布道师

使用php-mime-mail-parser解析邮件扩展格式的doc文件

有一种 doc 文件, office word 可以正常打开,但当你想像其他 doc 文件一样使用 libreoffice 去操作它的时候会发现里面全是字符串,...

12020
来自专栏keinYe

外行学 Python 爬虫 第四篇 URL 去重

当你可以从网站上获取网页,也可以将网页中有效的信息提取出来以后,接下来你会做什么?我想它一定是一个肯定的答案『获取整个网站的内容』,毕竟只获取网站上一个网页的内...

11310
来自专栏keinYe

初识 Python 网络请求库 urllib

urllib 是 Python 自带的网络请求标准库,包含了多个处理 URL 功能的模块。

10940
来自专栏keinYe

Python 爬虫第三篇(循环爬取多个网页)

本篇是 python 爬虫的第三篇,在前面两篇 Python 爬虫第一篇(urllib+regex) 和 Python 爬虫第二篇(urllib+Beautif...

17020
来自专栏keinYe

外行学 Python 爬虫 第七篇 开启多线程加快爬取速度

经过上一篇文章外行学 Python 爬虫 第六篇 动态翻页我们实现了网页的动态的分页,此时我们可以爬取立创商城所有的原件信息了,经过几十个小时的不懈努力,一共获...

15850

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励