前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬虫学习--第六个爬虫程序

爬虫学习--第六个爬虫程序

作者头像
简单、
发布2018-07-18 15:06:29
2900
发布2018-07-18 15:06:29
举报

思路呢,教程呢,都是学习了人家的。只不过有的地方出错,有的地方理解不了。就换成了自己能理解的方法改写了一点。

代码语言:javascript
复制
    #-*- coding:utf-8 -*-


from bs4 import BeautifulSoup

import requests

import os,sys

import time

class mzitu():

    def allUrl(self,url): #获取图片页面所有连接
        
        html = self.request(url)

        htmlSoup = BeautifulSoup(html.text,'lxml').find('div',class_='all').find_all('a')

        for x in htmlSoup:
            
            title = x.get_text()

            href = x['href'] #获取套图地址

            name = x['href'].split("/")[-1]

            
            print '##################################'
            print        u"开始保存..."+name+u"的套图"
            print '##################################'        
                   

            time.sleep(3)

            path = name

            chPath = "E:\py\%s" %name

            self.mkdir(path)

            os.chdir(chPath)

            self.html(href)

    def html(self,href): #处理套图的页面地址
        
        html = self.request(href)

        hrefSoup = BeautifulSoup(html.text,'lxml').find('div',class_='pagenavi').find_all('span')[-2].get_text()

        for page in range(1 , int(hrefSoup) + 1):

            pageUrl = href+'/'+str(page) #href是套图的地址 hrefSoup则是套图的页面地址

            self.img(pageUrl)

    def img(self,pageUrl): #处理获取图片实际地址
        
        imgUrl = self.request(pageUrl)

        imgSoup = BeautifulSoup(imgUrl.text,'lxml').find('div',class_='main-image').find('img')['src']

        self.save(imgSoup)

    def save(self,imgSoup): #下载保存图片

        print u"正在下载.."+imgSoup

        saveName = imgSoup.split("/")[-1]

        saveImg = self.request(imgSoup)

        f = open(saveName,'wb')

        f.write(saveImg.content)

        f.close()

    def mkdir(self,path): #创建文件夹
        
        path = path.strip()

        isExists = os.path.exists(os.path.join("E:\py", path))

        if not isExists:

            print(u"建了一个名字叫做" +path+ u"的文件夹!")

            os.makedirs(os.path.join("E:\py", path))

            return True
        else:

            print(u"名字叫做" +path+ u"的文件夹已经存在了!")
            
            return False       

    def request(self,url): #复用函数
    
        res = requests.get(url)

        return res


mzPic = mzitu()

mzPic.allUrl('http://www.mzitu.com/all')

===成果图====

爬虫
爬虫

Tags: None

Archives QR Code

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档