首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

[SEO知识讲解] 什么样的网站设计对搜索引擎友好?

| 如果我们从搜索引擎蜘蛛的角度去看待一个网站,在抓取、索引和排名时会遇到问题呢?解决了这些问题的网站设计就是搜索引擎友好(search engine friendly)的。那么,什么样的网站设计对搜索引擎友好?一起来看看吧。       1.搜索引擎蜘蛛能不能找到网页。       要让搜索引擎发现网站首页,就必须要有外部链接连到首页,找到首页后,蜘蛛沿着内部链接找到更深的内容页,所以要求网站要有良好的结构,符合逻辑,并且所有页面可以通过可爬行的普通HNL链接达到、JaVsCnp链接、Flash中的链接等搜索引擎蜘蛛般不能跟踪爬行,就会造成收录问题。       网站所有页面离首页点击距离不能太远,最好在四五次点击之内。要被搜索引擎收录,页面需要有最基本的权重,良好的网站链接结构可以适当传递权重,使尽量多的页面达到收录门槛。       2.找到网页后能不能抓取页面内容。       被发现的URL必须是可以被抓取的。数据库动态生成、带有过多参数的URL、Session ID、整个页面是Flash、框架结构(frame)、可疑的转向、大量复制内容等都可能使搜索引擎敬而远之。 某些文件站长可能不希望被收录,除了不链接到这些文件,更保险的方法是使用robots文件或者meta robot标签禁止收录。       3.抓取页面后怎样提炼有用信息。       关键词在页面重要位置的合理分布、重要标签的撰写、HTML代码精简、起码的兼容性等可以帮助搜索引擎理解页面内容,提取有用信息。       只有搜索引擎能顺利找到所有页面,抓取这些页面并提取出其中真正有相关性的内容,网站才可以被视为是搜索引擎友好的。 |

01

《这就是搜索引擎》爬虫部分摘抄总结

首先从互联网页面中精心选择一部分网页,以这些网页的链接地址作为种子URL,将这些种子URL放入待抓取URL队列中,爬虫从待抓取URL队列依次读取,并将URL通过DNS解析,把链接地址转换为网站服务器对应的IP地址。然后将其和网页相对路径名称交给网页下载器,网页下载器负责页面内容的下载。对于下载到本地的网页,一方面将其存储到页面库中,等待建立索引等后续处理;另一方面将下载网页的URL放入已抓取URL队列中,这个队列记载了爬虫系统已经下载过的网页URL,以避免网页的重复抓取。对于刚下载的网页,从中抽取出所包含的所有链接信息,并在已抓取URL队列中检查,如果发现链接还没有被抓取过,则将这个URL放入待抓取URL队列末尾,在之后的抓取调度中会下载这个URL对应的网页。如此这般,形成循环,直到待抓取URL队列为空,这代表着爬虫系统已将能够抓取的网页尽数抓完,此时完成了一轮完整的抓取过程。

04

走过路过不容错过,Python爬虫面试总结

Selenium 是一个Web 的自动化测试工具,可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。Selenium库里有个叫 WebDriver 的API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像BeautifulSoup 或者其他Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。

02
领券