前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python爬虫实践——简单爬取我的博客

Python爬虫实践——简单爬取我的博客

作者头像
小之丶
发布2018-03-07 14:46:43
1K0
发布2018-03-07 14:46:43
举报
文章被收录于专栏:WeaponZhiWeaponZhi

学任何一门技术,如果没有实践,技术就难以真正的吸收。利用上次博客讲解的三个知识点:URL 管理器、网页下载器和网页解析器来爬取一下我的博客。

我的博客地址

http://weaponzhi.online/

这个博客里面没有技术的文章,主要是我的一些生活上面的记录,可以说是我的日记本,平时会写一些思想感悟,记录些琐事。我们简单以这个博客主页为入口,爬取一下以 weaponzhi.online 为 host 下所有的 URL 。

首先当然是需要一个 URL 管理器了,但和上篇文章说的有所不同,这次我们的待爬取数据结构是队列,实际上 Python 本身的 list 已经可以实现队列的一些操作了,但 list 的一些队列操作比如 pop() 效率是比较低的,Python 官方推荐使用 collection.deque 来完成队列操作。

代码语言:javascript
复制
from collections import deque

queue = deque()  # 待爬取的队列
visited = set()  # 已爬取的set

host = 'http://weaponzhi.online'  # 入口页面, 可以换成别的
queue.append(host)

host 是我们的入口界面同时也作为一个 host 作为后续 URL 拼接使用,这个到后面再说。

代码语言:javascript
复制
count = 0  # 计数器

while queue:

    url = queue.popleft()  # 队首元素出队
    visited.add(url)  # 标记为已访问

    print('已经抓取: ' + str(count) + '   正在抓取 <---  ' + url)
    count += 1
    try:
        url_response = urllib.request.urlopen(url)
        # 过滤.jpg这种非跳转URL的情况
        if 'html' not in url_response.getheader('Content-Type'):
            continue
        data = url_response.read().decode('utf-8')
    except:
        continue

URL 管理器相关的数据结构建立好后,我们就可以从入口开始进行我们网页下载器部分的编写了。

我们先从待爬取的队列中 pop 出一个 URL,注意,pop 开头的方法在获取元素的同时会将元素从队列中移除。当我们获取完待爬取的元素的同时也将该 URL 添加到已爬取 URL 容器管理。

因为我们是一个简单的爬虫,并没有作任何的异常处理,所以为了避免爬取过程中遇到一些网络异常状况导致爬虫程序终止,我们将网页下载器的关键代码部分都 try...except 了,在遇到特殊情况的时候,将继续循环流程。

这里处理了一种情况,因为有的 URL 是一个下载链接或者图片,以 .jpg 或者 .ico 结尾,这种情况我们应该通过判断 header 属性机智的跳过它。

到现在为止都是上一篇文章的内容,不是很难,最复杂和需要花时间处理逻辑的,还是我们的网络解析器部分。

我先小试牛刀,在刚刚的 while 语句下写下了这段代码。

代码语言:javascript
复制
soup = BeautifulSoup(data, 'lxml')
node = soup.find_all('a')  # 查找a标签节点
for x in node:
    try:
        new_url = x['href']
        if new_url not in queue and new_url not in visited:
            queue.append(new_url)
            print('加入队列 ---> ' + new_url)
    except:
        continue

我使用 lxml 作为解析器,这种解析器的速度比 html.parser更快,而且它在 Python 各平台的兼容性也非常好。

我们通过 find_all 拿到了一个节点列表,需要注意的是,通过 soup 对象 find 函数返回的对象类型是bs4.element.Tag,Tag 与 XML 和 HTML 原生文档中的 tag 相同,它有两个重要属性 Name 和 Attributes,在这个例子中,name 就是标签名 a,Attributes 有很多,比如这里的 href,还有 class,id 等等。Attributes 的使用方法和字典一模一样,比如 x['href']。

上面的解析器代码输出的结果如下图所示

从结果来看这个爬虫还是有一定问题的,首先,爬取的 URL 大多都是相对路径,这种路径使用 urlopen 是肯定没法读取的。其次,我们看到我们会爬取到一些和博客地址无关的路径,比如图中的知乎地址,出现这种情况的原因是博客会有一些路径的跳转入口,如果我们放任爬虫去爬取这些路径,除非我们限定了爬取数量,那么爬虫将会无限制的爬取下去,直到天荒地老。

我们的目的是只爬取以 weaponzhi.online 开头的博客内地址,并且记录爬取数,如果队列中的 URL 全部出队,则自动停止循环,修改后的代码如下所示

代码语言:javascript
复制
for x in node:
    try:
       new_url = x['href']
       if new_url.startswith('/'):
            new_url = host + new_url
        if new_url not in queue and new_url not in visited:
            if 'http' in new_url and 'weaponzhi' in new_url:
                queue.append(new_url)
                print('加入队列 ---> ' + new_url)
    except:
        continue

我这里的处理方式比较简单粗暴,如果 URL 是以 '/' 开头的,我就认为它是一个相对地址,并把该地址与 host 地址作一个拼接。然后,用一个判断语句,确保该 URL 内有 weaponzhi 字段,从而保证了 URL 是博客内地址。当然了,更好的方式是使用正则表达式来代替这些判断语句,这就留给各位看官自行思考了~

来看看现在的代码结果

我将源码上传到了 Github 上,以后相关的文章都会在这个仓库中拓展。

https://github.com/WeaponZhi/PythonSpiner

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-01-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 WeaponZhi 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档