Python自学笔记——多线程微信文章爬取

# -*- coding: utf-8 -*-

"""

Created on Tue Dec 26 10:34:09 2017

@author: Andrew

"""

#线程1专门获取对应网址并处理为真是网址,然后将网址写入队列urlqueue中,该队列专门用来存放具体文章的网址

#线程2与线程1并行,从线程1提供的网址中依次爬取对应文章信息并处理,处理后将我们需要的结果写入对应的本地文件中

#线程3主要用于判断程序是否完成。因为在此如果没有一个总体控制的线程,即使线程1、2执行完,也不会退出程序

#在正规的项目设计时,尽量并行执行的线程执行的时间相近

#建立合理的延时机制,如:发生异常或让执行较快的线程进行延时。

#建立合理的异常处理机制

导入所需的模块

import threading

import queue

import re

import urllib.request

import time

import urllib.error

#创建一个网址队列

urlqueue=queue.Queue()

#模拟成浏览器

headers=("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36")

opener.add_handler=[headers]

#将opener安装为全局

#建立空url列表

listurl=[]

#读取网页源代码

def readdata(url):

try:

return data

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

time.sleep(1)

#线程1,专门获取对应网址并处理为真实网址

class geturl(threading.Thread):

def __init__(self,key,pagestart,pageend,urlqueue):

threading.Thread.__init__(self)

self.pagestart=pagestart

self.pageend=pageend

self.urlqueue=urlqueue

def run(self):

page=self.pagestart

#编译关键词key

for page in range(self.pagestart,self.pageend+1):

data1=readdata(url)

#列表页url正则

listurlpat='

.*?(http://.*?)"'

listurl.append(re.compile(listurlpat,re.S).findall(data1))

#便于调试

print("获取到"+str(len(listurl))+"页")

for i in range(0,len(listurl)):

#等一等线程2,合理分配资源

time.sleep(7)

for j in range(0,len(listurl[i])):

try:

url=listurl[i][j]

#处理成真实url,采集网址比真实网址多了一串"amp;"

url=url.replace("amp;","")

print("第"+str(i)+","str(j)+"次入队")

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

#若为URLError异常,延时10秒执行

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

#若为Exception异常,延时1秒执行

time.sleep(1)

#线程2,与线程1并行,从线程1提供的网址urlqueue中依次爬去对应文章信息并处理

class getcontent(threading.Thread):

def __init__(self,urlqueue):

threading.Thread.__init__(self)

self.urlqueue=urlqueue

def run(self):

html='''

fh=open("C:/Python35/3.html","wb")

fh.write(html.encode("utf-8"))

fh.close()

fh=open("C:/Python35/3.html","ab")

i=1

while(True):

try:

data=readdata(url)

#文章标题正则表达式

titlepat="(.*?)"

#文章内容正则表达式

contentpat='id="js_content">(.*?)id="js_sg_bar"'

#通过对应正则表达式找到标题并赋给列表title

title=re.compile(titlepat).findall(data)

#通过对应正则表达式找到内容并赋给content

content=re.compile(contentpat,re.S).findall(data)

#初始化标题与内容

thistitle="此次没有获取到"

thiscontent="此次没有获取到"

#如果标题列表不为空,说明找到了标题,去列表第0个元素,即次标题赋给thistitle

if(title!=[]):

thistitle=title[0]

if(thiscontent!=[]):

thiscontent=content[0]

#将标题与内容汇总赋给变量dataall

dataall="

标题为:"+thistitle+"

内容为:"+thiscontent+"

"

#将该篇文章的标题与内容的总信息写入对应文件

fh.write(dataall.encode("utf-8"))

print("第"+str(i)+"个网页")#便于调试

i+=1

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

#若为URLError异常,延时10秒执行

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

#若为Exception异常,延时1秒执行

time.sleep(1)

fh.close()

html4='''

'''

fh=open("C:/Python35/3.html","ab")

fh.write(html4.encode("utf-8"))

fh.close()

#并行控制程序,若60秒未响应,并且url的队列已空,则判断为执行成功

class contrl(threading.Thread):

def __init__(self,urlqueue):

threading.Thread.__init__(self)

self.urlqueue=urlqueue

def run(self):

while(True):

print("程序执行中")

time.sleep(60)

print("程序执行完毕!")

exit()

#运行

key="考研数学泄题"

pagestart=1#起始页

pageend=2#爬取到哪页

#创建线程1对象,随后启动线程1

t1=geturl(key,pagestart,pageend,urlqueue)

t1.start()

#创建线程2对象,随后启动线程2

t2=getcontent(urlqueue)

t2.start()

#创建线程3对象,随后启动线程3

t3=contrl(urlqueue)

t3.start()

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20171226G0F2AJ00?refer=cp_1026

同媒体快讯

相关快讯

扫码关注云+社区