python爬虫:将本人博客园文章转化为MarkDown格式

本周又和大家见面了,首先说一下两周之后要进行研究生的期末考试,所以这次可能是考试之前的最后一更,我要忙着复习了,还请大家见谅,一般情况下我都是每周更新一篇技术原创。

  好了,废话不多说,咱们进入今天的主题。由于我在简书也有自己的基地,所以每次在博客园文章更新完,还要在简书进行更新。由于简书文章的编辑格式是MarkDown,所以前几次更新修改格式都是非常麻烦,浪费时间,尤其是有了图片之后。于是,为了不让自己的时间浪费在这么无聊的事情上,我就用学到的爬虫知识,对我写的文章进行格式的转化(当然我只是按照我文章的格式进行解析的,不具有通用性,之后可以完善通用性)。

  咱们就按照我写的上面文章Scrapy爬取美女图片第四集 突破反爬虫(上)为例,进行格式的转化。

  来到这个界面:

你会发现文章中主要包含这几种特殊对象: 段落文本(有颜色和无颜色之分),图片(主要是提取图片链接),代码框中的代码。所以咱们需要对这几种对象进行分别提取和转化。

  老规矩,打开firebug,输入链接,这次不仅需要观察HTML结构,还要观察网络这个选项,捕获这个get请求,会发现很大的不同。

  同样是表现的代码内容,发现网络请求返回的标签和最后生成的标签是不一样的。这就是通过javascript动态修改html。那咱们该以什么为准呢?当然是以网络请求的格式为准,因为在实际的网络访问中就是获取的这个内容。

  通过上面的可以看到代码都是由pre标签进行包裹,其他内容都是由p标签进行包裹。所以为了统一格式,先将获取到的pre标签换成p标签,并添加code属性进行区分。当然用到的还是bs4这个神器。直接看一下代码:


soup = BeautifulSoup(response)#,'html.parser',from_encoding='utf-8'

pres = soup.findAll('pre')

for pre in pres:

pre.name ='p'

pre['code']='yes'


首先提取其中图片的链接,并按照标签的顺序添加到list中存储:


ps = soup.findAll('p')

for p in ps:

img = p.img

if img !=None:

self.content={'tag':'img','content':img['src']}

self.papers.append(self.content)


接着提取code的代码内容,并按照标签的顺序添加到list中存储:


if p.get('code')=='yes':

self.content={'tag':'code','content':p.text.replace('&nbsp:','').strip()}

self.papers.append(self.content)


然后将正常段落中的颜色部分进行标注,我习惯是将加颜色的文字,最后转化为加粗形式。从格式中看到,加颜色的字体使用span标签进行包裹的。

咱们将标签进行替换和标注,以便后续处理。


elif p.span != None:

spans = p.findAll('span')#找到所有的span标签

for span in spans:

# print span.text

if span.get('style').find('color')!=-1:

# del span['style']

# span.name='color'

if span.string!=None:

span.string = 'c_start'+span.string+'c_end' #对有颜色的文本进行标注


有时候会发现,文本中有链接,咱们还要把链接进行按次序提取。


links =p.findAll('a')

for link in links:

if link.string!=None:

link.string = '['+link.string+']'+'('+link.string+')'

self.content={'tag':'text','content':p.text.replace('&nbsp:','').strip()} self.papers.append(self.content)


经过这几个步骤就将所有要提取的内容都分离出来了,接下来进行转化为markdown格式。


#coding:utf-8

class Convert(object):

@classmethod

def convert(self,papers):

str = ''

with open('D:\markdown.txt','w') as file_writer:

for p in papers:

if p['tag']=='text':

str = p['content'].replace('c_start','**').replace('c_end','**') #这个是替换颜色,使用加粗

pass

elif p['tag']=='code':

str = '```'+'\r\n'+p['content']+'\r\n'+'```' #这个是代码框的添加

else:

#![](http://upload-images.jianshu.io/upload_images/1823443-7c4c920514b8f0cf.jpg?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)#这个是图片链接的转化

str = '![](%s)'%(p['content'])

str = '\r\n'+str+'\r\n'

file_writer.write(str.encode('utf-8'))

file_writer.write('\r\n'.encode('utf-8'))

file_writer.close()


最后咱们看一下效果,将生成的markdown文本复制到简书上去,是否显示正确。这个就是最后简书文章链接:http://www.jianshu.com/p/9159111bcd87。效果还是不错的,可能需要一些微调,以前整理格式要花10几分钟,不超过两分钟就搞定

原文发布于微信公众号 - 七夜安全博客(qiye_safe)

原文发表时间:2016-06-20

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏青枫的专栏

Java语言中:在数据类型的讲解中补充的几个小问题

============================================================================= 1...

541
来自专栏数说工作室

【SAS Says】基础篇:开发数据

特别说明:本节【SAS Says】基础篇:开发数据,用的是数说君学习《The little SAS book》时的中文笔记,我们认为这是打基础的最好选择。 转载...

3056
来自专栏java学习

基本数据类型

基本数据类型 在数据类型中,最常用也是最基础的数据类型,被称作基本数据类型。可以使用这些类型的值来代表一些简单的状态。 Java 语言的基本数据类型总共有以下8...

3528
来自专栏ascii0x03的安全笔记

PySide——Python图形化界面入门教程(六)

PySide——Python图形化界面入门教程(六)             ——QListView和QStandardItemModel 翻译自:http:/...

3206
来自专栏逸鹏说道

Python3 与 NetCore 基础语法对比(就当Python和C#基础的普及吧)

VSCode设置python3的开发环境(linux下默认是python2)https://www.cnblogs.com/dotnetcrazy/p/9095...

903
来自专栏黒之染开发日记

css3动画在手机端的流畅度比较

我发现即使都是用css3的transition做动画,有的属性在动画播放时却会不流畅,出现定格动画的效果,这里做个比较,方便我以后做动画。

812
来自专栏儿童编程

Python基础语法导图汇总(补充篇)

这一段间经过对Python的学习,在之前两次汇总后,又对遗漏的部分及新接触的内容用思维导图的形式进行了汇总。

573
来自专栏人工智能头条

机器学习如何从Python 2迁移到Python 3

1432
来自专栏熊二哥

快速入门系列--MVC--04模型

model元数据    闲来继续学习蒋金楠大师的ASP.NET MVC框架揭秘一书,当前主要阅读的内容是Model元数据的解析,即使是阅读完的现在,仍然有不少...

1805
来自专栏王磊的博客

LINQ能不能用系列(一)LINQ to Object 效率比对

前言 简介:LINQ,语言集成查询(Language INtegrated Query)是一组用于c#和Visual Basic语言的扩展。 分类:LINQ t...

2784

扫码关注云+社区