首页
学习
活动
专区
工具
TVP
发布

论如何提升格调——多线程网络爬虫了解一下?

对于网络爬虫,相比大家已经并不陌生了,大家时常写的都是串行爬虫,已经烂大街了,平庸而缓慢的爬虫可能不足以满足聪明的你,所以,今天想给大家简单介绍一下更“高大上”的爬虫——多线程网络爬虫。

多线程网络爬虫

何为进程、线程、多线程?

进程:进程是一个具有一定独立功能的程序关于某个数据集合的一次运行活动。它是操作系统动态执行的基本单元,在传统的操作系统中,进程既是基本的分配单元,也是基本的执行单元。

线程:不拥有系统资源,故对它的调度所付出的开销就会小得多,能更高效的提高系统多个程序间并发执行的程度。

多线程:在一个程序中,这些独立运行的程序片段叫作“线程”(Thread),利用它编程的概念就叫作“多线程处理”。多线程是为了同步完成多项任务,不是为了提高运行效率,而是为了提高资源使用效率来提高系统的效率。线程是在同一时间需要完成多项任务的时候实现的。

举个例子就是:我打开了QQ,此时,启动了一个进程(即QQ),给郑爽发了一条语音,启动了该进程中的一个线程;然后又给迪丽热巴发了一个表情,此时我又启动了一个线程。这就是进程、线程、多线程的一个最简单的例子。如下图所示。

Python中的多线程

多线程类似于同时执行多个不同程序,多线程运行有如下优点

使用线程可以把占据长时间的程序中的任务放到后台去处理。

用户界面可以更加吸引人,这样比如用户点击了一个按钮去触发某些事件的处理,可以弹出一个进度条来显示处理的进度

程序的运行速度可能加快

在一些等待的任务实现上如用户输入、文件读写和网络收发数据等,线程就比较有用了。在这种情况下我们可以释放一些珍贵的资源如内存占用等等。

Python3中处理多线程的模块是threading模块,提供一些简单的方法,如:

threading.currentThread(): 返回当前的线程变量。

threading.enumerate(): 返回一个包含正在运行的线程的list。正在运行指线程启动后、结束前,不包括启动前和终止后的线程。

threading.activeCount(): 返回正在运行的线程数量,与len(threading.enumerate())有相同的结果。

除了使用方法外,线程模块同样提供了Thread类来处理线程,Thread类提供了以下方法:

run(): 用以表示线程活动的方法。

start():启动线程活动。

join([time]): 等待至线程中止。这阻塞调用线程直至线程的join() 方法被调用中止-正常退出或者抛出未处理的异常-或者是可选的超时发生。

isAlive(): 返回线程是否活动的。

getName(): 返回线程名。

setName(): 设置线程名。

下面看一个简单的例子:定义了两个很简单的函数,一个负责让程序休眠3秒,然后打印函数启动和终止的时间;另一个让程序休眠8秒,然后打印函数启动和终止的时间。先用常规方式运行两个函数。

输出结果如下:可以看到第一个函数doWaiting()在14:52:47开始运行,打印启动时间,然后休眠3秒,三秒后,也就是14:52:50,函数运行完成,打印该函数终止运行的时间,同时,第二个函数doWaiting1()启动,打印该函数启动时间,8秒后,函数运行完成,打印结束时间。

start waiting1: 14:52:47

stop waiting1: 14:52:50

start waiting2: 14:52:50

stop waiting2: 14:52:58

可以看到,程序是自上而下串行执行的,如果用并行的方式呢?函数定义不变,只将主函数修改如下所示:用threading.Thread()类构造线程thread1和thread2,target参数接受的是某个函数,对每个线程使用start()方法启动线程。让我们来看一看输出结果。

start waiting1: 15:02:21

start waiting2: 15:02:21

stop waiting1: 15:02:24

stop waiting2: 15:02:29

可以看到两个函数的启动时间为同一时刻,然后分别运行了3秒和8秒,这就是并行,程序没有自上而下的执行函数,而是将两个函数同时执行。

当然,更常用的多线程构造方式是继承threading.Thread()类,如下所示,背景与前一段程序相同,无非是让程序休眠:

程序的输出如下所示(嗯。。。和之前间隔了两个多小时,这段时间我午休了一会儿,不想让头发过早掉光),这个我就不用多解释了对吧,两个线程同时启动,3秒和8秒后分别停止:

开始Thread1线程,开始时间:17:32:06

开始Thread2线程,开始时间:17:32:06

线程Thread1结束,结束时间:17:32:09

线程Thread2结束,结束时间:17:32:14

程序结束 17:32:14

关于多线程还有最后一点知识,就是有关线程同步和队列的内容。

所谓线程同步,举个例子:考虑这样一种情况:一个列表里所有元素都是0,线程"set"从后向前把所有元素改成1,而线程"print"负责从前往后读取列表并打印。那么,可能线程"set"开始改的时候,线程"print"便来打印列表了,输出就成了一半0一半1,这就是数据的不同步。为了避免这种情况,引入了锁的概念。锁有两种状态——锁定和未锁定。每当一个线程比如"set"要访问共享数据时,必须先获得锁定;如果已经有别的线程比如"print"获得锁定了,那么就让线程"set"暂停,也就是同步阻塞;等到线程"print"访问完毕,释放锁以后,再让线程"set"继续。经过这样的处理,打印列表时要么全部输出0,要么全部输出1。使用Thread对象的Lock和Rlock以实现简单的线程同步,这两个对象都有acquire方法和release方法,对于那些需要每次只允许一个线程操作的数据,可以将其操作放到acquire和release方法之间。

如下所示,将上面的例子稍作修改:

输出结果如下所示,两个线程同时启动,3秒后,线程1结束,又8秒后(也就是距离程序开始后的11秒)线程2结束,这个结局有些类似于串行执行的程序,但是要记住,我们的两个线程,即休眠3秒和休眠8秒是同时启动的,只是,我不让它俩同时做休眠操作(还想一起睡???):

开始Thread1线程,开始时间:17:39:03

开始Thread2线程,开始时间:17:39:03

线程Thread1结束,结束时间:17:39:06

线程Thread2结束,结束时间:17:39:14

程序结束 17:39:14

最后就是有关队列的内容了。包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列 PriorityQueue。这些队列都实现了锁原语,能够在多线程中直接使用,可以使用队列来实现线程间的同步。Python中queue模块可以良好的实现队列,简单的队列如下所示:

输出结果如下所示:

先进先出

2

1

3

后进先出

3

1

2

优先级队列

1

2

3

关于多线程,基本就这么多基础知识了,接下来进入多线程爬虫!

串行爬虫与多线程爬虫

这是咱们要爬的页面,页面不多,十几页,url是https://www.qiushibaike.com/hot/page/1/

多线程网络爬虫的思路很简单,首先回顾串行网络爬虫,通常我们要先获取一批url列表,然后遍历这些url中的每一页,解析它,获取我们需要的内容,或者说是获取一条url,然后解析它,完成后获取下一条url,然后解析,而并行爬虫的思路(简单地说)就是,我用一个线程获取url,同时,另一个线程在做解析,就仿佛之前例子中两个线程一起睡一样,在不断获取url的同时,也在把已经获取到的url做解析,这就是并行爬虫在做的事情,串行爬虫需要等待,而多线程爬虫不需要,在获取url的同时,解析的工作也在同时进行。好好体会一下这段话,是不是有些懂得多线程爬虫与串行爬虫的不同了?

这里,采用的是xpath方式解析或者说抽取信息,属于爬虫的基本支持,关于xpath或者BeautifulSoup等爬虫基础,我就不做过多赘述了。流程如下所示。

总的来说就是由几个线程实现获取网页的功能,同时,另外几个线程负责解析获取到的页面,得到我们想要的信息。

话不多说,上代码,thread_crawl是继承Thread的类,作用是抓取每个页面;Thread_Parser也是继承Thread的类,作用是解析抓取到的页面,提取所需要的内容。

完整的代码可以到https://github.com/flashfireXia/threading-crawler-with-python查看对应的multithreading_crawl.py文件

运行结果如下所示:

抓取网页线程启动1

网页获取线程 1 ,第 1 页

抓取网页线程启动2

网页获取线程 2 ,第 2 页

抓取网页线程启动3

网页获取线程 3 ,第 3 页

解析线程启动: parser-1

解析线程启动: parser-2

解析线程启动: parser-3

网页获取线程 3 ,第 4 页

网页获取线程 1 ,第 5 页

网页获取线程 2 ,第 6 页

网页获取线程 1 ,第 7 页

网页获取线程 3 ,第 8 页

网页获取线程 2 ,第 9 页

解析线程: parser-1 ,total= 1

解析线程: parser-2 ,total= 2

网页获取线程 1 ,第 10 页

抓取网页线程结束 2

解析线程: parser-3 ,total= 3

解析线程: parser-1 ,total= 4

抓取网页线程结束 3

解析线程: parser-2 ,total= 5

解析线程: parser-3 ,total= 6

解析线程: parser-1 ,total= 7

抓取网页线程结束 1

解析线程: parser-2 ,total= 8

线程 parser-2 结束

解析线程: parser-3 ,total= 9

线程 parser-3 结束

解析线程: parser-1 ,total= 10

线程 parser-1 结束

退出主线程

再来看一下我们存储的数据:

由于页面量很少,所以很快就可以获取到我们所需要的数据,当然,这是json格式的文件,我们有多种方式将他转为看着更舒服的数据框,比如pandas就可以,这里就不多介绍了。整个多线程爬虫的运行时间要快于同样目标的串行爬虫40%以上。

结尾

好了,呕心沥血终于是把多线程网络爬虫的基础给大家介绍了~希望可以和大家一起提升逼格!

点点关注吧~~

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180531G06UFX00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券