前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬虫入门之爬万本书籍

python爬虫入门之爬万本书籍

作者头像
python学习教程
发布2019-07-10 10:46:31
9030
发布2019-07-10 10:46:31
举报
文章被收录于专栏:python学习教程

前言

Python现在非常火,语法简单而且功能强大,很多同学都想学Python!所以小的给各位看官们准备了高价值Python学习视频教程及相关电子版书籍,都放在了文章结尾,欢迎前来领取!

最近闲的无聊,想爬点书看看。 于是我选择了这个网站雨枫轩(http://www.rain8.com/

STEP1.分析网站


一开始我想通过一篇文章引用的链接,将书爬完,后来发现并不需要这样做。比如我们可以打开人生哲学这个栏目。

如图1所示,会把页面数全列出来。 并且这个url

代码语言:javascript
复制
http://txt.rain8.com/txtzx/list_93_1.html

也非常的有规律。 可以看出是由

代码语言:javascript
复制
'http://txt.rain8.com/txt'+'栏目名称'+'list_栏目编号_页数.html'

组成的。 知道了这点后,我们就能轻松的把网站爬完了。

STEP2.初始化

首先我们来理清思路。

这是我们需要的库

代码语言:javascript
复制
import requestsimport reimport os

其实这个项目用urllib2也能完成。 我们首先来初始化,在self.urls里,我们定义一些需要fetch的栏目。(比如言情,恐怖仙侠之类的书就可以跳过)。然后写一些正则表达式,供其他的method使用。

代码语言:javascript
复制
class fetchBook:    def __init__(self):        self.header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}        self.urls = [                     'http://txt.rain8.com/txtgw/',                     'http://txt.rain8.com/txtzj/',                     'http://txt.rain8.com/txtzx/',                     'http://txt.rain8.com/txtsh/'                     ]        self.rePageIndex = re.compile('list_\d+_\d+.html')#得到栏目编号        self.rePageCount = re.compile('<strong>\d+</strong>')#得到页面数目        self.reDownloadGet1 = re.compile('href=.http://txt.rain8.com/plus/xiazai_yfx.php?[^>]+')#得到下载链接        self.reGetTitle = re.compile('<title>.+</title>')#得到标题        self.reGetAuthor = re.compile("</small><span>[^>]+")#得到作者名称        self.reBookGetNew = re.compile('')#得到书籍链接        self.reBookGetOld = re.compile('')        self.cnt = 0

STEP3.获取所有的页面

我们可以查看人生哲学源代码。可以找到总共的页数。

然后我们就能得到每一页的数据。 代码如下

代码语言:javascript
复制
    def viewAllPage(self,url):        """        函数功能为把该栏目下所有页面全过一遍。        """        req = requests.get(url,headers = self.header)        pageIndex = self.rePageIndex.findall(req.text)[0][5:7]        pageCount = int(self.rePageCount.findall(req.text)[0][8:-9])        urlToFetch = [url,'list_',pageIndex,'_','1','.html']        foldname = self.reGetTitle.findall(req.text)[0][7:]        foldname = foldname.encode('unicode_escape').decode('string_escape')        foldname = foldname.split('|')[0]        self.createDir(foldname)        for page in range(1,pageCount+1):            urlToFetch[4] = str(page)            url_to_get = ''.join(urlToFetch)#得到所有页面的url

STEP4.得到下载链接

然后我们用上面写好的正则表达式,来匹配她的下载链接。

代码语言:javascript
复制
    def fetchDownloadUrl(self,bookurl):        req = requests.get(bookurl,headers = self.header)        result = self.reDownloadGet1.findall(req.text)        result = result[0][6:-17]        authorname = self.reGetAuthor.findall(req.text)[0][14:-6].encode('unicode_escape').decode('string_escape')        req = requests.get(result,headers = self.header)        bookname = self.reGetTitle.findall(req.text)[0][7:-24]        downloadurl = self.reDownloadGet1.findall(req.text)[0][6:-17]        return downloadurl,bookname,authorname

STEP5.下载

下载的时候,由于该网站下载的书都是rar格式的。所以我们只要用二进制的方式写就可以了。 我们调用

代码语言:javascript
复制
self.req = requests.get(downloadUrl,headers = self.header)

然后

代码语言:javascript
复制
f = open(posi+'/'+bookname+'.rar','wb')

就可以写进去了。

STEP6.编码问题

之前一直被python的编码问题搞的头大,这次又遇见了。于是找了点资料看了看。 因为python工作使用的编码是unicode,如果要在编码间进行转化,推荐要先decode成unicode,然后再encode成别的编码。 然后我在爬内容的过程中碰到了这个问题:

代码语言:javascript
复制
s = u'\xb9\xc5\xca\xab\xb4\xca\xc3\xfb\xd6\xf8'

\xb9这样的很明显应该是gbk编码。而python却在字符串前加了个u。然后我对这串字符encode还是decode都会报错。或者打印出来乱码。 经过查阅资料,我找到了一种解决办法

代码语言:javascript
复制
s.encode('unicode_escape').decode('string_escape')

经过这样处理后

代码语言:javascript
复制
>>> print repr(s)>>> '\xb9\xc5\xca\xab\xb4\xca\xc3\xfb\xd6\xf8'

很明显就恢复了正常。这时我们只要decode('gb2312')就能转换成unicode编码了。

STEP7.结果展示

github地址:https://github.com/bloodycoder/craw_books

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-04-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 python教程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • STEP1.分析网站
  • STEP2.初始化
  • STEP3.获取所有的页面
  • STEP4.得到下载链接
  • STEP5.下载
  • STEP6.编码问题
  • STEP7.结果展示
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档