前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python自学笔记——多线程微信文章爬取

Python自学笔记——多线程微信文章爬取

作者头像
企鹅号小编
发布2018-01-25 10:04:01
5840
发布2018-01-25 10:04:01
举报
文章被收录于专栏:大数据大数据

# -*- coding: utf-8 -*-

"""

Created on Tue Dec 26 10:34:09 2017

@author: Andrew

"""

#线程1专门获取对应网址并处理为真是网址,然后将网址写入队列urlqueue中,该队列专门用来存放具体文章的网址

#线程2与线程1并行,从线程1提供的网址中依次爬取对应文章信息并处理,处理后将我们需要的结果写入对应的本地文件中

#线程3主要用于判断程序是否完成。因为在此如果没有一个总体控制的线程,即使线程1、2执行完,也不会退出程序

#在正规的项目设计时,尽量并行执行的线程执行的时间相近

#建立合理的延时机制,如:发生异常或让执行较快的线程进行延时。

#建立合理的异常处理机制

导入所需的模块

import threading

import queue

import re

import urllib.request

import time

import urllib.error

#创建一个网址队列

urlqueue=queue.Queue()

#模拟成浏览器

headers=("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36")

opener.add_handler=[headers]

#将opener安装为全局

#建立空url列表

listurl=[]

#读取网页源代码

def readdata(url):

try:

return data

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

time.sleep(1)

#线程1,专门获取对应网址并处理为真实网址

class geturl(threading.Thread):

def __init__(self,key,pagestart,pageend,urlqueue):

threading.Thread.__init__(self)

self.pagestart=pagestart

self.pageend=pageend

self.urlqueue=urlqueue

def run(self):

page=self.pagestart

#编译关键词key

for page in range(self.pagestart,self.pageend+1):

data1=readdata(url)

#列表页url正则

listurlpat='

.*?(http://.*?)"'

listurl.append(re.compile(listurlpat,re.S).findall(data1))

#便于调试

print("获取到"+str(len(listurl))+"页")

for i in range(0,len(listurl)):

#等一等线程2,合理分配资源

time.sleep(7)

for j in range(0,len(listurl[i])):

try:

url=listurl[i][j]

#处理成真实url,采集网址比真实网址多了一串"amp;"

url=url.replace("amp;","")

print("第"+str(i)+","str(j)+"次入队")

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

#若为URLError异常,延时10秒执行

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

#若为Exception异常,延时1秒执行

time.sleep(1)

#线程2,与线程1并行,从线程1提供的网址urlqueue中依次爬去对应文章信息并处理

class getcontent(threading.Thread):

def __init__(self,urlqueue):

threading.Thread.__init__(self)

self.urlqueue=urlqueue

def run(self):

html='''

fh=open("C:/Python35/3.html","wb")

fh.write(html.encode("utf-8"))

fh.close()

fh=open("C:/Python35/3.html","ab")

i=1

while(True):

try:

data=readdata(url)

#文章标题正则表达式

titlepat="(.*?)"

#文章内容正则表达式

contentpat='id="js_content">(.*?)id="js_sg_bar"'

#通过对应正则表达式找到标题并赋给列表title

title=re.compile(titlepat).findall(data)

#通过对应正则表达式找到内容并赋给content

content=re.compile(contentpat,re.S).findall(data)

#初始化标题与内容

thistitle="此次没有获取到"

thiscontent="此次没有获取到"

#如果标题列表不为空,说明找到了标题,去列表第0个元素,即次标题赋给thistitle

if(title!=[]):

thistitle=title[0]

if(thiscontent!=[]):

thiscontent=content[0]

#将标题与内容汇总赋给变量dataall

dataall="

标题为:"+thistitle+"

内容为:"+thiscontent+"

"

#将该篇文章的标题与内容的总信息写入对应文件

fh.write(dataall.encode("utf-8"))

print("第"+str(i)+"个网页")#便于调试

i+=1

except urllib.error.URLError as e:

if hasattr(e,"code"):

print(e.code)

if hasattr(e,"reason"):

print(e.reason)

#若为URLError异常,延时10秒执行

time.sleep(10)

except Exception as e:

print("exception:"+str(e))

#若为Exception异常,延时1秒执行

time.sleep(1)

fh.close()

html4='''

'''

fh=open("C:/Python35/3.html","ab")

fh.write(html4.encode("utf-8"))

fh.close()

#并行控制程序,若60秒未响应,并且url的队列已空,则判断为执行成功

class contrl(threading.Thread):

def __init__(self,urlqueue):

threading.Thread.__init__(self)

self.urlqueue=urlqueue

def run(self):

while(True):

print("程序执行中")

time.sleep(60)

print("程序执行完毕!")

exit()

#运行

key="考研数学泄题"

pagestart=1#起始页

pageend=2#爬取到哪页

#创建线程1对象,随后启动线程1

t1=geturl(key,pagestart,pageend,urlqueue)

t1.start()

#创建线程2对象,随后启动线程2

t2=getcontent(urlqueue)

t2.start()

#创建线程3对象,随后启动线程3

t3=contrl(urlqueue)

t3.start()

本文来自企鹅号 - 包子馒头铺媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 包子馒头铺媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
大数据
全栈大数据产品,面向海量数据场景,帮助您 “智理无数,心中有数”!
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档