首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python学习之初识Scrapy

初识Scrapy

什么是Scrapy?

Scrapy使用 Python 实现的一个开源爬虫框架,Scrapy基于 twisted这个高性能的事件驱动网络引擎框架,Scrapy爬虫拥有很高的性能。

Scrapy内置数据提取器(Selector),支持XPath和 Scrapy自己的 CSS Selector语法

并且支持正则表达式,方便从网页提取信息。

交互式的命令行工具,方便测试 Selector 和 debugging爬虫

支持将数据导出为 JSON,CSV,XML格式。

可推展性强,运行自己编写特定功能的插件

内置了很多拓展和中间件用于处理:

cookies和 session

HTTP的压缩,认证,缓存

robots.txt

爬虫深度限制

Scrapy内部数据流程图

Scrapy内部数据流程图

其中:

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。

Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,

Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器),

Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

Downloader Middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。

Spider Middlewares(Spider中间件):你可以理解为是一个可以自定扩展和操作引擎和Spider中间通信的功能组件(比如进入Spider的Responses;和从Spider出去的Requests)

制作 Scrapy 爬虫 的步骤?

如何安装Scrapy?

在windows系统下安装Scrapy

在windows 64bit系统下需要先安装Scrapy需要安装的依赖库:

在linux下安装Scrapy

系统版本为ubuntu 16.04

Scrapy文件结构

安装好Scrapy后,我们在windows命令行模式下输入以下命令创建Scrapy项目:

可以看到创建了以下文件:

Scrapy文件结构

其中:

Scrapy单文件demo

创建完Scrapy项目,还是要上手实验一下才能更好的理解,所以我根据之前我在楼+课程中的学习笔记写了一个Scrapy单文件Demo,使用这个单文件Demo能快速爬取实验楼全部课程信息。

首先看下单文件的内容结构:

因为实验楼的网页结构还是很简单的,所以解析部分就不做赘述,直接上单文件完整代码:

保存文件,使用运行代码,这里使用 参数将结果输出为json格式。

写在后面

这是咸鱼的第四篇学习笔记,旨在熟悉scrapy单文件结构为之后深入学习scrapy打好基础。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180709G0Q1EI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券