前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

作者头像
TeamsSix
发布2019-12-31 15:11:06
1K0
发布2019-12-31 15:11:06
举报
文章被收录于专栏:TeamsSix的网络空间安全专栏

0x00 前言

前文中讲到了将爬取的数据导出到文件中,接下来就在前文的代码基础之上,将数据导出到 MongoDB中。

0x01 配置 pipelines.py

首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。

将连接操作 mongo 所需要的包导入进来

代码语言:javascript
复制
import pymongo

接下来定义一些参数,注意下面的函数都是在 TeamssixPipeline 类下的

代码语言:javascript
复制
@classmethod
def from_crawler(cls, crawler):
cls.DB_URL = crawler.settings.get('MONGO_DB_URI')
cls.DB_NAME = crawler.settings.get('MONGO_DB_NAME')
return cls()

def open_spider(self, spider):
self.client = pymongo.MongoClient(self.DB_URL)
self.db = self.client[self.DB_NAME]

def close_spider(self, spider):
self.client.close()

def process_item(self, item, spider):
collection = self.db[spider.name]
collection.insert_one(dict(item))
return item

0x02 配置 settings.py

ITEM_PIPELINES 是settings.py 文件自带的,把注释符号删掉就好

代码语言:javascript
复制
ITEM_PIPELINES = {
'teamssix.pipelines.TeamssixPipeline': 300,  #优先级,1-1000,数值越低优先级越高
}
MONGO_DB_URI = 'mongodb://localhost:27017'  #mongodb 的连接 url
MONGO_DB_NAME = 'blog'  #要连接的库

0x02 运行

直接执行命令,不加参数

代码语言:javascript
复制
scrapy crawl blogurl

注意,如果原来 MongoDB 中没有我们要连接的库, MongoDB 会自己创建,就不需要自己创建了,所以还是蛮方便的,使用 Robo 3T 打开后,就能看到刚才存进的数据。

参考链接: https://youtu.be/aDwAmj3VWH4 http://doc.scrapy.org/en/latest/topics/architecture.html https://lemmo.xyz/post/Scrapy-To-MongoDB-By-Pipeline.html

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 TeamsSix 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0x00 前言
  • 0x01 配置 pipelines.py
  • 0x02 配置 settings.py
  • 0x02 运行
相关产品与服务
云数据库 MongoDB
腾讯云数据库 MongoDB(TencentDB for MongoDB)是腾讯云基于全球广受欢迎的 MongoDB 打造的高性能 NoSQL 数据库,100%完全兼容 MongoDB 协议,支持跨文档事务,提供稳定丰富的监控管理,弹性可扩展、自动容灾,适用于文档型数据库场景,您无需自建灾备体系及控制管理系统。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档