爬虫之全站爬取方法

方法

做过好几个关于网站全站的项目,这里总结一下。

先把上面那张图写下来,全站爬取的两种方法:

  1. 关系网络:
    1. 优点:简单;可以抓取“热门”数据
    2. 缺点:无法抓取全量数据;速度慢;需要解决去重问题
    3. 可行性:比较高
  2. 遍历ID
    1. 优点:可以抓取所有数据;不用数据去重
    2. 缺点:资源消耗大;速度慢;可能被发现
    3. 可行性:仅可用于ID自增

看图

关于关系网络

其实这个很好理解。比如说知乎,一个大V有100W粉丝,从这个大V出发,抓取粉丝的粉丝,一直循环下去。(可能是个死循环)

这个方法就比较简单,Scrapy中就是继承CrawlSpider,再编写匹配规则就好。

Example

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor

class MySpider(CrawlSpider):
    name = 'example.com'
    allowed_domains = ['example.com']
    start_urls = ['http://www.example.com']

    rules = (
        # Extract links matching 'category.php' (but not matching 'subsection.php')
        # and follow links from them (since no callback means follow=True by default).
        Rule(LinkExtractor(allow=('category\.php', ), deny=('subsection\.php', ))),

        # Extract links matching 'item.php' and parse them with the spider's method parse_item
        Rule(LinkExtractor(allow=('item\.php', )), callback='parse_item'),
    )

    def parse_item(self, response):
        self.logger.info('Hi, this is an item page! %s', response.url)
        item = scrapy.Item()
        item['id'] = response.xpath('//td[@id="item_id"]/text()').re(r'ID: (\d+)')
        item['name'] = response.xpath('//td[@id="item_name"]/text()').extract()
        item['description'] = response.xpath('//td[@id="item_description"]/text()').extract()
        return item

这种方法一般是搜索引擎会做的。而且抓取的内容基本是最多人看到的,所以月排在前面,和SEO有关。

但是这种方法的缺点也是很明显的,最明显的就是没法抓全数据,像那种冷门的数据就没法抓取到,速度也是比较慢的,必须保存去重队列,以防止重复抓取页面。(了解下布隆过滤器)

如果对数据完整性要求没那么高可以考虑这种方法。

遍历ID

找各种方法就比较无脑了,啥也不用想,从0开始遍历跑吧。

毫无疑问,这种方法可以抓取网站所有的数据,因为在开始抓取前就已经完成的去重,所以这方面就不用管了。

但是缺点也很明显,因为是遍历ID,所以需要很多服务器资源和代理资源,有可能某个ID已经下架或失效。所以整个工程请求量会非常大。而且可能被别人发现,一般人都去看那些热门帖子,结果你把那么重来没人看的翻了一遍,别人也会发现数据异常的(也会存在假数据的情况?)。

而且这种方法之适用于ID自增的,大多数是数字ID递增,比如说天眼查的:

https://www.tianyancha.com/company/24762997
https://www.tianyancha.com/company/150041670
https://www.tianyancha.com/company/1073358312

知乎的

https://zhuanlan.zhihu.com/p/47969297
https://zhuanlan.zhihu.com/p/48652497
https://zhuanlan.zhihu.com/p/47805332

应该是和数字有关系,可以先采样进行抓取,研究数据分布情况。

当提供不正确ID时,也会返回数据不存在的情况

在这里提供一个生成ID的方法

def gen_uid(num):
    """
    使用生成器生成ID
    :param num: 起始ID
    :return: 生成器
    """
    js = 0
    result = list()
    while js < 20000:
        num += 1
        js += 1
        result.append(num)

    yield result

最后再看看这张图。两种方法都有优缺点,根据实际需求选取,如果你还知道别的抓取方法,欢迎指出。

原文发布于微信公众号 - Python爬虫与算法进阶(zhangslob)

原文发表时间:2018-11-08

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏spring源码深度学习

设计模式——代码如若初相见

设计模式(Design pattern)是一套被反复使用、多数人知晓的、经过分类编目的、代码设计经验的总结。

1002
来自专栏iOS技术

何为代码质量?——用脑子写代码引言正文总结

为什么项目维护困难、BUG 反复?实际上很多时候就是代码质量的问题。代码架构就像是建筑的钢筋结构,代码细节就像是建筑的内部装修,建筑的抗震等级、简装或豪装完全取...

742
来自专栏个人分享

Flink单机版安装与wordCount

Flink为大数据处理工具,类似hadoop,spark.但它能够在大规模分布式系统中快速处理,与spark相似也是基于内存运算,并以低延迟性和高容错性主城,其...

1481
来自专栏窗户

shell编程/字库裁剪(3)——验证

  程序写完了,必须要验证,这是重要的方法论。因为如果不验证,则不会知道程序写的对还是不对。学过人工智能或者控制论都知道,反馈非常重要,反馈形成闭环,可以用来指...

22210
来自专栏Crossin的编程教室

【Python 第7课】if

感觉又一次被微信坑了。前两天刚说改变课程发送方式,今天微信就突然服务器升级,暂时不能新增接收文章的关键字了。所以这两天,还是用回老方式,直接推送。过去的课程0~...

2996
来自专栏编程

编写高质量代码的思考

前言 最近在看《代码大全》,可以说是一本软件开发的百科全书,特别厚,但是干货也很多。平时写代码,代码规范是一个最低的要求(很多老代码连最低要求都达不到),为什么...

2496
来自专栏Python研发

设计模式 -- 常用设计模式

                                  ——可复用面向对象软件的基础

3311
来自专栏Android开发经验

ExpandableStickyListHeadersListView遇到的一个问题

1444
来自专栏JAVA高级架构

Java设计模式-责任链模式

作者:Jet啟思 链接:https://juejin.im/post/5a126b146fb9a0450c490201 今天来说说程序员小猿和产品就关于需求发生...

41211
来自专栏精讲JAVA

Gof设计模式之七大设计原则(六)

前言 今天的设计原则重理论,举例子只能是文字形式,没法使用代码解释,希望大家可以多读几遍。真正体会到设计原则的好处。每一个设计原则,我都尽量用非...

22310

扫码关注云+社区

领取腾讯云代金券