前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[Python爬虫]scrapy-redis快速上手(爬虫分布式改造)

[Python爬虫]scrapy-redis快速上手(爬虫分布式改造)

作者头像
Rude3Knife的公众号
发布2019-08-07 11:25:27
2.3K0
发布2019-08-07 11:25:27
举报
文章被收录于专栏:后端技术漫谈后端技术漫谈

作者的话

对Python爬虫如何实现大批量爬取感兴趣的读者可以看下scrapy爬虫框架,并且使用本文的scrapy-redis将你的爬虫升级为分布式爬虫。

前言

阅读本文章,您需要:

  • 了解scrapy爬虫框架,知道scrapy的基本使用,最好已经有了可以单机运行的scrapy爬虫。
  • 了解scrapy-redis可以用来干嘛。
  • 已经尝试了一些反反爬措施后仍然觉得爬取效率太低。
  • 已经看了无数scrapy-redis文章,却和我一样不得要领。(自己太笨)
  • 已经看了无数scrapy-redis文章,被辣鸡文章坑的生活不能自理,到现在还没配置好。(可能还是自己太笨)

提示:本文为快速上手文章,有些操作的具体步骤不详细讲,自行百度通用解法,省略的部分我认为你可以自行解决,如果遇到问题,请留言提问

使用scrapy-redis将scrapy改造为分布式

安装需要的python库和数据库

  • 安装scrapy-redis:pip install scrapy-redis
  • 安装redis:可以仅在master(主)端安装
  • 安装其他数据库(可选):mysql,mangoDB,用来保存大量数据,当然也可以选择不安装。用其他方法处理数据。

提示:请注意版本问题,不要过低。

配置redis

  1. master(主)上的redis安装后,需要做以下几件事:
  • 配置redis.conf设置从外网访问:#bind 127.0.0.1
  • 最好设置个密码
  • 取消保护模式 protected-mode no
  1. master启动redis,使用./redis-server redis.conf(改为你的设置文件所在位置)
  2. 尝试从slave(从)连接master的redis,连接成功(盗的图):

image

修改scrapy:setting.py

添加如下代码:

# scrapy-redis
REDIS_URL = 'redis://:yzd@127.0.0.1:6379'  # for master
# REDIS_URL = 'redis://:yzd@10.140.0.2:6379'  # for slave (master's ip)
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
SCHEDULER_PERSIST = True
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"

对于itempipeline:你以前怎么存的数据还是怎么存,当然你也可以用redis先存,之后再一起转移出来。像我就直接存到mysql了

ITEM_PIPELINES = {
    # 'JD.pipelines.JdPipeline': 300,
    # 'scrapy_redis.pipelines.RedisPipeline': 400,
    'JD.mysqlpipelines.pipelines.JDPipeline': 300,
}

修改scrapy:spiders/xxxxx.py(自己命名的爬虫文件)

将继承改为继承Redisspider

#!/usr/bin/env python
# -*- coding: utf-8 -*-
import scrapy
from JD.items import JdItem
import logging
from scrapy_redis.spiders import RedisSpider
import time

# class JDcat(scrapy.Spider):
class JDcat(RedisSpider):
    name = "JDcate"
    allowed_domains = ["jd.com"]

    # scrapy-redis
    redis_key = "JDcate:JD_urls"

    def start_requests(self):
        # designed by yourself
        # yield scrapy.Request(url=url, callback=self.parse)
        pass

    def parse(self, response):
        # designed by yourself
        pass

修改slave的存储数据库设置(可选)

如果你想要让slave抓取到的数据直接存入master的数据库,您别忘了修改slave的数据库连接设置

# for master
db_item = pymysql.connect(host="localhost", user="root", password="root",
                          db="pricemonitor", port=3306, charset='utf8')

# for slave
# db_item = pymysql.connect(host="10.140.0.2", user="root", password="root",
#                           db="pricemonitor", port=3306, charset='utf8')

启动分布式爬虫

启动master:scrapy crawl xxxxx 启动slave: crawl xxxxx

image2

上传了个demo源码,供大家修改使用: https://github.com/qqxx6661/scrapy_redis_demo

有问题请留言或邮件yangzd1993@foxmail.com

参考

https://www.cnblogs.com/zjl6/p/6742673.html scrapy-redis官方文档

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 后端技术漫谈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 作者的话
  • 前言
  • 使用scrapy-redis将scrapy改造为分布式
    • 安装需要的python库和数据库
      • 配置redis
        • 修改scrapy:setting.py
          • 修改scrapy:spiders/xxxxx.py(自己命名的爬虫文件)
            • 修改slave的存储数据库设置(可选)
            • 启动分布式爬虫
            • 参考
            相关产品与服务
            云数据库 Redis
            腾讯云数据库 Redis(TencentDB for Redis)是腾讯云打造的兼容 Redis 协议的缓存和存储服务。丰富的数据结构能帮助您完成不同类型的业务场景开发。支持主从热备,提供自动容灾切换、数据备份、故障迁移、实例监控、在线扩容、数据回档等全套的数据库服务。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档