前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Scrapy-笔记一 入门项目 爬虫抓取w3c网站

Scrapy-笔记一 入门项目 爬虫抓取w3c网站

作者头像
十四君
发布2019-11-27 23:26:39
6560
发布2019-11-27 23:26:39
举报
文章被收录于专栏:UrlteamUrlteam

学习自:http://blog.csdn.net/u012150179/article/details/32911511

入门项目建议仔细学习

关于环境配置请看:http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/install.html

1.创建项目:

代码语言:javascript
复制
	scrapy crawl w3school

2.在items.py中定义Item容器

所谓Item容器就是将在网页中获取的数据结构化保存的数据结构,类似于Python中字典。下面为items.py中代码。

代码语言:javascript
复制
from scrapy.item import Item,Field  
  
class W3schoolItem(Item):  
    title = Field()  
    link = Field()  
    desc = Field()

定义了自己的W3schoolItem类,它继承自scrapy的Item(这里没有显示定义W3schoolItem的__init__()方法,也正因为如此,python也会为你自动调用基类的__init__(),否则必须显式在子类的__init__()中调用基类__init__())。之后声明W3schoolItem中元素并使用Field定义。

3.在pipelines.py中编写W3schoolPipeline

实现对item的处理。

在其中主要完成数据的查重、丢弃,验证item中数据,将得到的item数据保存等工作。代码如下:

代码语言:javascript
复制
# -*- coding: utf-8 -*-
 
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
 
import json  
import codecs  
  
class W3SchoolPipeline(object):  
    def __init__(self):  
        #初始化打开json记录文件数据
        #定义编码为utf-8
        self.file = codecs.open('w3school_data_utf8.json', 'wb', encoding='utf-8')  
  
    def process_item(self, item, spider):  
        line = json.dumps(dict(item)) + '\n'  
        # print line  
        
        self.file.write(line.decode("unicode_escape"))  
        return item  
        #返回类型必须要是item类型

其中的process_item方法是必须调用的用来处理item,并且返回值必须为Item类的对象,或者是抛出DropItem异常。并且上述方法将得到的item实现解码,以便正常显示中文,最终保存到json文件中。

注意:在编写完pipeline后,为了能够启动它,必须将其加入到ITEM_PIPLINES配置中,即在settings.py中加入下面一句:

代码语言:javascript
复制
ITEM_PIPELINES = {  
    'w3school.pipelines.W3SchoolPipeline':300  
}

4.爬虫主代码

spider/文件夹下编写w3cshool_spider.py

代码语言:javascript
复制
#!/usr/bin/python
# -*- coding:utf-8 -*-
 
from scrapy.spider import Spider
from scrapy.selector import Selector
from scrapy import log
 
from w3school.items import W3schoolItem
 
 
class W3schoolSpider(Spider):
    """爬取w3school标签"""
    #log.start("log",loglevel='INFO')
    #name为必须,需要在启动项目时制定
    name = "w3school"
    allowed_domains = ["w3school.com.cn"]
    #制定url列表,一般放置url根路口
    start_urls = [
        "http://www.w3school.com.cn/xml/xml_syntax.asp"
    ]
 
    def parse(self, response):
        #选择器获取页面源码,
        sel = Selector(response)
        #使用xparh进行筛选,选取所有div中id为navsecond的层所包含的所有div中id为course的ul中ul标签下的,li标签内容,
        sites = sel.xpath('//div[@id="navsecond"]/div[@id="course"]/ul[1]/li')
        
        #定义一个items容器
        items = []
        #site的内容包括href为链接,title为标题,
        for site in sites:
            #成为ie一个item的字典类型
            item = W3schoolItem()
            #对每一个site使用xpath抽取出a标签内的text,href,title.
            title = site.xpath('a/text()').extract()
            link = site.xpath('a/@href').extract()
            desc = site.xpath('a/@title').extract()
 
            item['title'] = [t.encode('utf-8') for t in title]
            item['link'] = [l.encode('utf-8') for l in link]
            item['desc'] = [d.encode('utf-8') for d in desc]
            #在列表中加入这个字典
            items.append(item)
 
            #记录
            log.msg("Appending item...",level='INFO')
 
 
        log.msg("Append done.",level='INFO')
        return items

(1)需要注意的是编写的spider必须继承自scrapy的Spider类。

属性name即spider唯一名字,start_url可以理解为爬取入口。

(2)parse方法。

parse()是对scrapy.Spider类的override。

(3)网页中的数据提取机制。

scrapy使用选择器Selector并通过XPath实现数据的提取。关于XPath 推荐w3school的教程。

(4)在parse方法中还使用到了log功能实现信息记录。

使用log.mes()函数即可。

5.最终结果:

提取的是http://www.w3school.com.cn/xml/xml_syntax.asp网页中下图部分。

clip_image002
clip_image002

即“XML 基础”下所有目录结构的名字、链接和描述。使用Firebug找到次部分对应的代码块后就可以使用XPath执行信息提取。Xpath表达式如上面代码中所示。

上面还涉及到了对item中信息的编码,是为了中文信息在json文件中的正确显示。

6.运行项目

代码语言:javascript
复制
scrapy crawl w3school

运行 vim w3school_data_utf8.json

即可看到

7.审查元素

一般使用谷歌浏览器,然后在页面右击选择审查||检查,或者f12可以看到页面的源代码,可以进行xpath的筛选

QQ截图20160620163722
QQ截图20160620163722

原创文章,转载请注明: 转载自URl-team

本文链接地址: Scrapy-笔记一 入门项目 爬虫抓取w3c网站

Related posts:

  1. Scrapy-笔记二 中文处理以及保存中文数据
  2. Scrapy笔记三 自动多网页爬取-本wordpress博客所有文章
  3. Scrapy笔记四 自动爬取网页之使用CrawlSpider
  4. Scrapy笔记五 爬取妹子图网的图片 详细解析
  5. Scrapy笔记零 环境搭建与五大组件架构
  6. 基于百度IP定位的网站访问来源分析的python实战项目–实践笔记二–调百度地图将经纬信息可视化呈现
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016-06-202,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.创建项目:
  • 2.在items.py中定义Item容器
  • 3.在pipelines.py中编写W3schoolPipeline
  • 5.最终结果:
  • 6.运行项目
  • 7.审查元素
  • Related posts:
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档