首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >50行代码教你打造一个公众号文章采集器

50行代码教你打造一个公众号文章采集器

作者头像
IT派
发布2018-08-10 15:06:04
6200
发布2018-08-10 15:06:04
举报
文章被收录于专栏:IT派IT派IT派

Alfred的女票是一枚数据科学领域的新媒体运营官(是的,Alfred是一名程序员,Alfred有女票

),每天都要阅读大量的行业相关文章,以掌握行业的动向,挑选和生产相关内容。为此,她关注了一大批的相关公众号,每天都一个个公众号挨个点开阅读,怪麻烦的。

一来可能漏掉某些公众号更新的重要讯息,二来经常会看到转载的重复性的文章。

这可咋办呢?

身为一个合(gao)格(shi)的男票,我是那个看在眼里急在心里啊!

那就写一个公众号文章的收集器吧,每天早上9点的时候都把昨天一天以来各个行业内公众号发表的文章的标题、摘要和链接等相关信息爬下来,形成一个文档发给女票,这样可以大大方便阅读。

就这么愉快地决定了

需求很简单,主要分为两块,一块是公众号文章爬取,一块是把爬回来的文章储存为word文档。

公众号文章爬取

首先跟女票要了她关注的公众号,结果她发我很长很长的一串列表,足足有50多个公众号。算了算,如果每个公众号每天更新3篇文章,那么她每天最少就得看150多篇公众号文章,确实是够呛呀。

接着是爬取公众号文章。这方面早已有人造好了轮子,也就是基于搜狗微信搜索的微信公众号爬虫接口:WechatSogou,在此感谢@Chyroc。

传送门:

https://github.com/Chyroc/WechatSogou

也就是,我们不用自己造轮子,只需要调用API就好了。

wechatsogou 的使用很简单,先实例化一个WechatSogouAPI,便可以调用get_gzh_article_by_history()方法返回最近10篇文章,比如说要爬取“Alfred在纽西兰”的文章,便是:

ws_api = wechatsogou.WechatSogouAPI() ws_api. get_gzh_article_by_history('Alfred在纽西兰')

这样便可以返回一个json文件,里面包含“Alfred在纽西兰”公众号的最近10篇文章。

这个轮子是不是嗖嗖的?

可见,文章储存在“article”对应的列表里,相关的信息有标题(title)、摘要(abstract)、文章链接(content_url)、发表时间(datetime)、是否头条(main)、版权状况(copyright_stat)等。

这就是说,只要实例化一个WechatSogouAPI,然后遍历一下长长的公众号列表,便可以把所有公众号近期发表的文章爬取下来了。然后加一个时间过滤,便可获得一天以来发表的文章。

当然,作为一个贴心的男票,我还加上了头条文章过滤和原创文章过滤,默认把不是头条和不是原创的文章都过滤掉,并把它封装成一个function:

from datetime import * import wechatsogou # 文章爬取 def get_articles(headline=True, original=True, timedel=1, add_account=None): with open('gzh.txt', 'r') as f: accounts = [account.strip() for account in f.readlines()] # add_account必须是一个list或None if add_account is not None: if isinstance(list, add_account): accounts.extend(add_account) with open('gzh.txt', 'w') as f: for account in accounts: f.write(account) else: print('add_account should be a list') ws_api = wechatsogou.WechatSogouAPI(captcha_break_time=3) articles = [] for account in accounts: articles.extend(reformat(ws_api.get_gzh_article_by_history(account))) # 时间过滤,只选取规定天数以内的 timestamp = int((datetime.now()-timedelta(days=timedel)).timestamp()) articles = [article for article in articles if article['datetime'] > timestamp] # 头条文章过滤,是否选取头条文章,默认是 if headline: articles = [article for article in articles if article['main'] == 1] # 原创文章过滤,是否选取原创文章,默认是 if original: articles = [article for article in articles if article['copyright_stat'] == 100] return articles # 为保存每篇文章的字典添加一个公众号来源 def reformat(data): atcs = data.get('article') if atcs is not None: wechat_name = data.get('gzh')['wechat_name'] for article in atcs: article['wechat_name'] = wechat_name return atcs

存储为word文档

最后爬回来的文章是一个list,里面每个dict存放着每篇文章的信息。我们需要把这个list保存到word文档里面,并且以一个清晰的排版呈现出来。

这时候有一个叫python-docx的库,可以很方便的帮助我们来做这件事情。

传送门:

https://python-docx.readthedocs.io/

Python-docx的使用也很简单,实例化一个类,再通过add_headingd()的方法添加标题、add_paragraph()方法添加段落、add_picture()方法添加图片,便可以按照我们的想法进行排版。例如:

from docx import Document from docx.shared import Inches document = Document() # 实例化一个Document类 document.add_heading('这是一个标题', 0) # 添加标题 document.add_paragraph('这是一段话') # 添加段落 document.add_picture('一个图片.jpeg', width=Inches(1)) 添加图片

上面一段代码生成的word文档长这样:

因此,遍历一下爬回来的list,然后排版,保存到本地,便大功告成了。

最后爬回来的文档开头长这样:

结尾长这样:

撒狗粮成功!溜了~

后记:

1. 后期还可以为这个采集器加上更多的功能,比如说再添加一个把word以邮件形式直接发送邮箱的功能,或者保存为Excel的功能等,都是可以的;

2. 当然也可以把它转换成小程序,方便运行;

3. 由于验证码识别的原因,有一些验证码需要人工识别,希望以后的wechatsougou可以更强大;

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 IT派 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
验证码
腾讯云新一代行为验证码(Captcha),基于十道安全栅栏, 为网页、App、小程序开发者打造立体、全面的人机验证。最大程度保护注册登录、活动秒杀、点赞发帖、数据保护等各大场景下业务安全的同时,提供更精细化的用户体验。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档