本文章是下文链接的学习笔记: 一小时入门python3网络爬虫
原文笔记是在winows下进行的,本文是在ubuntu下进行的所有操作....在Python\3中使用request和urllib.request来获取网页的具体信息....到目前为止,我们已经可以抓取到小说一章的内容,并且进行了分段显示.下一个目标就是要把整个小说都下载下来....接下来,就是匹配抓取到的每一个标签,并提取章节名和章节文章.例如,取第一章,标签内容如下:
第一章 他叫白小纯
对BeautifulSoup...现在每个章节的章节名,章节链接都有了.接下来就是整合代码,将获得的内容写入文本文件存储就好了,代码如下:
#-*-coding:utf-8-*-
2 from bs4 import BeautifulSoup