前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python Scrapy 爬虫框架 | 3、利用 Scrapy 爬取博客文章详细信息

Python Scrapy 爬虫框架 | 3、利用 Scrapy 爬取博客文章详细信息

作者头像
TeamsSix
发布2019-12-30 10:11:37
7200
发布2019-12-30 10:11:37
举报

0x00 写在前面

在之前的文章中,会发现如果直接使用爬取命令,终端会回显很多调试信息,这样输出的内容就会显得很乱,所以就可以使用下面的命令:

代码语言:javascript
复制
scrapy crawl blogurl  -s LOG_FILE=all.log

也就是在原来的基础上加上一个 -s 参数,这样调试信息就会保存到参数指定的文件中,不过也可以在 class 下添加下面的代码,这样只会显示调试出现错误的信息,所以这种方式就不用加 -s 了,至于选择哪一个,就需要视情况而定。

代码语言:javascript
复制
custom_settings = {'LOG_LEVEL':'ERROR'}

0x01 编写子页面爬取代码

先来看一行关键代码

代码语言:javascript
复制
yield scrapy.Request(url,callback=self.sub_article)

上面这行代码中,使用 yield 返回利用 scrapy 请求 url 所获得的数据,并将数据通过 callback 传递到 sub_article 函数中。

其实对于 yield 和 return 都可以返回数据,但是利用 yield 返回数据后,还可以继续运行下面的代码,而使用 return 后,接下来的代码就不会再运行了,在 scrapy 中,如果使用 return 返回数据再用 list 存储数据,会造成不少的内存消耗,而使用 yield 则可以减少这些不必要的内存浪费。

所以接下来在 sub_article 函数中写上我们爬取子页面的代码即可,这里就爬取每个文章的标题和目录作为示例了。

代码语言:javascript
复制
def sub_article(self,response):
   soup = BeautifulSoup(response.text,'html.parser')
   print('\n',soup.select('.title')[0].text)
   for i in soup.select('.toc-text'):
      print('\t',i.text)

运行结果如下:

代码语言:javascript
复制
~# scrapy crawl blogurl  -s LOG_FILE=all.log
【漏洞笔记】Robots.txt站点文件
         0x00 概述
         0x01 漏洞描述
         0x02 漏洞危害
         0x03 修复建议
【经验总结】常见的HTTP方法
         0x00 概述
         0x01 GET
         0x02 HEAD
         0x03 POST
         0x04 PUT
         0x05 DELETE
         0x06 CONNECT
         0x07 OPTIONS
         0x08 TRACE
         0x09 PATCH
【漏洞笔记】Host头攻击
         0x00 概述
         0x01 漏洞描述
         0x02 漏洞危害
         0x03 修复建议
【直播笔记】白帽子的成长之路
【Python 学习笔记】 异步IO (asyncio) 协程
         0x00 前言
         0x01 基本用法
……省略……

0x02 完整代码

代码语言:javascript
复制
import scrapy
from bs4 import BeautifulSoup

class BlogSpider(scrapy.Spider):
   name = 'blogurl'
   start_urls = ['https://www.teamssix.com']

   def parse(self,response):
      soup = BeautifulSoup(response.text,'html.parser')
      for i in soup.select('.post-title'):
         url = 'https://www.teamssix.com{}'.format(i['href'])
         yield scrapy.Request(url,callback=self.sub_article)

   def sub_article(self,response):
      soup = BeautifulSoup(response.text,'html.parser')
      title = self.article_title(soup)
      list = self.article_list(soup)
      print(title)
      for i in list:
         print('\t',i)

   def article_title(self,soup):
      return soup.select('.title')[0].text

   def article_list(self,soup):
      list = []
      for i in soup.select('.toc-text'):
         list.append(i.text)
      return list

参考链接: https://youtu.be/aDwAmj3VWH4 https://blog.csdn.net/DEREK_D/article/details/84239813 http://doc.scrapy.org/en/latest/topics/architecture.html

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-12-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 TeamsSix 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0x00 写在前面
  • 0x01 编写子页面爬取代码
  • 0x02 完整代码
相关产品与服务
云直播
云直播(Cloud Streaming Services,CSS)为您提供极速、稳定、专业的云端直播处理服务,根据业务的不同直播场景需求,云直播提供了标准直播、快直播、云导播台三种服务,分别针对大规模实时观看、超低延时直播、便捷云端导播的场景,配合腾讯云视立方·直播 SDK,为您提供一站式的音视频直播解决方案。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档