专栏首页前端资源新网站如何做好SEO优化 尽快被收录

新网站如何做好SEO优化 尽快被收录

网站的SEO优化是一门学问,通过系统的优化,网站可以快速被百度等搜索引擎收录。

我也并不是这方面的专家,只是搜集整理了一些主要的优化方法和注意事项,供大家参考。

对于新网站,百度等搜索引擎会有一定的扶持,所以在网站上线之前一定要做好规划,为了网站往什么领域发展、所涉猎的内容等都要提前想好。

1、新网站一定要提前想好TDK,这将对SEO起到非常重要的左右,因为搜索引擎首先抓取的就是这个。

TDK指的是什么呢?

  • T:title 网站的标题,包含网站名称和网站的定位关键词,不宜太长。
  • D:description 网站简介,最好保持在50字以内。
  • K:keywords 网站关键词,最好保持在2-30字以内。

TDK在页面头部的meta标签,还有一些其他的,比如:author 网站的作者等等。

代码如下:

<head>
    <title>w3h5 - 前端资源网</title>
    <meta name="description" content="w3h5资源网是一个WEB前端资源分享网站,提供技术经验和一些常用的网站工具等。">
    <meta name="keywords" content="WEB前端,前端资源网,w3h5">
</head>

2、习惯使用语义化标签,比如h1、h2.....标题标签等。

url采用绝对网址,或者使用网站伪静态,因为搜索引擎是不会抓去动态内容的。

优化HTML、js、css、php等的代码格式。

3、使用网站地图

网站地图一般是制作XML或者html文件,放在网站的根目录,如:Sitemap.XML和Sitemap.html

4、设置alt属性的值,虽然效果不是很大,但是要合理利用资源。

5、除去导出链接,设置友情链接

导出链接是网站中跳到其他网站的链接,点击直接跳出到别的网站。

如果是新站,最好设置几个友情链接,如果没有可以先设置一些站内的链接,但最好是站外的,权重越高越好。

6、网站备案,虽然不备案也可以访问,但是搜索引擎一定会有限收录已备案的网站的。

7、选择稳定安全的服务器,防止网站间歇性无法访问,对SEO是有很大影响的。

8、设置404页面,如果访问的资源不存在,自动跳转到404页面。

9、机器人协议

生成robots.txt放在网站根目录。robots文件包含User-agent: Disallow: 和 Sitemap:

User-agent:用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。

Disallow:不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。

例如:

a:"Disallow:/help"是指/help.html 和/help/目录下的页面都不允许搜索引擎蜘蛛抓取。

b:"Disallow:/help/"是指允许搜索引擎蜘蛛抓取/help.html,而不能抓取/help/目录下的页面。

c:Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。

#:Robots.txt 协议中的注释符。

Allow:希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

Sitemap:地图文件所在的位置。

综合例子 :

a:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:

User-agent: *
Disallow: /bin/cgi/
Disallow: /tmp/
Disallow: /foo.html

b:通过"/robots.txt"只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允许名为"slurp"的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:

User-agent: *
Disallow: /cgi/
User-agent: slurp
Disallow:

c:禁止任何搜索引擎抓取我的网站,设置方法如下:

User-agent: *
Disallow: /

d:只禁止某个搜索引擎抓取我的网站如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:

User-agent: slurp
Disallow: /

可以在最后一行加上Sitemap:

Sitemap:https://www.w3h5.com/sitemap.xml

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • Vue项目无法使用局域网IP直接访问的配置方法

    一般使用 vue-cli 下来的项目是可以直接访问局域网 IP 打开的,比如 192.168.1.11:8080 。但是最近公司的一个项目只可以通过 local...

    德顺
  • a标签中防止跳转的href="javascript:;"、"void(0);"等都是什么意思

    javascript: 是表示在触发默认动作时,执行一段JavaScript代码,而 javascript:; 表示什么都不执行,这样点击时就没有任何反应。这是...

    德顺
  • Web/PhpStorm代码格式化a、img标签换行的问题解决

    最近发现一个问题,使用 WebStorm 或者 PhpStorm 代码格式化时, a 标签 和 img 标签或者 link 标签会自动换行,显示多行,如下图:

    德顺
  • 为什么Vitess推荐每个MySQL服务器250GB?

    Vitess对数据库的可伸缩性有自己的看法。有些观点很少有争议,比如应该如何通过复制提供持久性,但是我发现一个有趣的建议是每个MySQL服务器250GB。

    CNCF
  • [日常] 小白来装机基本概念BIOS与硬盘分区

    这两天因为在linux进行测试,先是搞坏了linux的系统,然后在重装linux系统后搞坏了引导。在修复引导的过程中,搞坏了本机的win8系统,再次修复引导与重...

    陶士涵
  • DOMO-冉冉升起的自助式商业智能工具

    自助式商业智能(BI)工具Domo通过能够快速建立数据连接并开启分析的网页版BI工具解决了自助式BI的难题,目前售价是每个用户每年2,000美金。不像其他的工具...

    iCDO互联网数据官
  • 面向 JavaScript 开发人员的 ECMAScript 6 指南(2):ECMAScript 6 中的函数增强

    第 2 部分专门介绍将改变您使用 JavaScript 中的函数的方式的语言更新。在这一部分中,我们将介绍函数定义和调用语法,您将进一步了解解构赋值(这一次在函...

    疯狂的技术宅
  • JavaScript从初级往高级走系列————ES6

    在nodejs,exports 是 module.exports的引用,初始化时,它们都指向同一个{}对象。

    FinGet
  • 快速掌握JavaScript面试基础知识(二)

    根据StackOverflow 调查, 自 2014 年一来,JavaScript 是最流行的编程语言。当然,这也在情理之中,毕竟 1/3 的开发工作都需要一些...

    Fundebug
  • 为AI芯片铺路?原三星半导体周军加盟Rokid

    今天,Rokid CEO祝铭明对外宣布,原三星半导体(中国)所长周军博士正式加盟Rokid,担任Rokid基础平台副总裁。

    量子位

扫码关注云+社区

领取腾讯云代金券