做SEO,你不能不知道的搜索引擎工作原理,因为

搜索引擎基本上是我们打开浏览器第一个要打开的网站,没有之一,别问我为什么,因为我就是这。随着网络发展,网络上产生的内容也越来越多,但是我们怎么才能轻易的看到呢?这就直接的导致了搜索引擎的诞生,我们做seo网络推广,首先得知道它的工作原理,然后才好有针对性的去投其所好,最后达到网站排名的提升。那么它的具体工作原理是什么呢?

zac大神的书上是这么写的:爬行和抓取、预处理、排名。

爬行和抓取:搜索引擎蜘蛛通过跟踪链接爬取网页,获得页面html代码存入数据库。这里的蜘蛛是指搜索引擎用来爬取访问页面的程序,这个程序浏览网路上的页面后,会将浏览记录存入到数据库成为原始数据,一般蜘蛛访问时,首先会访问网站根目录的robots协议文件,了解该网站哪些不能抓取,哪些能抓取。

然后蜘蛛为了抓取更多内容,通常会跟踪网站上的链接,按照深度优先和广度优先爬行网站目录,然后抓取到数据库。

说完蜘蛛,那么问题来了,怎么引蜘蛛?我们最通俗的做法就是去搜索引擎的网站提交入口,将自己的网站提交,以便新站能让蜘蛛快速访问并抓取记录数据到数据库备用。

预处理:这一步是蜘蛛抓取数据后,在数据库中的排列?首先提取文字,然后分词,清除停止词,去处重复,最后按照正向索引和倒序索引排列达到我们看到的排名。

排名的计算方式是:对搜索词处理,对照数据库匹配,初始数据选择,相关性计算,过滤调整到最后的排名。

至此一整套的工作基本结束,我们看着简单,其实真相并不是我们看到的,我们看到的只是表象,因为我们不懂技术,但是我们得了解蜘蛛的这一套抓取排名原理,那么我们在以后的优化中,就可以得心应手了。你说呢?

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180428A1LRHF00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券