前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用Python爬取COS网页全部图片

用Python爬取COS网页全部图片

作者头像
天天Lotay
发布2022-12-01 08:23:25
7640
发布2022-12-01 08:23:25
举报
文章被收录于专栏:嵌入式音视频

Python爬取网页图片

一、爬取的网站内容

爬取http://www.win4000.com/meinvtag26_1.html的COS图片

二、爬取的网站域名

win4000.com

三、完成内容

(1)抓取的内容分布在电脑主题之家网站的24个页面和24个链接中。 (2)抓取一系列图片,并将图片按页面标题建立文件夹分类存入,存入时根据下载先后顺序排序。 (3)抓取内容的命名与抓取内容相衔接。 (4)使用了反爬技术 (5)图像数据选择JPG文档格式来保存

四、爬虫步骤及代码分析

爬虫的思路分为4步,具体如下:

1、分析目标网页,确定爬取的url路径,headers参数

在这里插入图片描述
在这里插入图片描述

(1)比如按F12后在内容中搜索“王者荣耀”(ctrl+f),寻找该页面的关系

在这里插入图片描述
在这里插入图片描述

因为可以找到当前网页的数据,所以这个网页是一个静态网页,那么这个网页的URL地址就是地址导航栏中的内容,即:http://www.win4000.com/meinvtag26_1.html

(2)我用谷歌浏览器,在network中找到User-agent

在这里插入图片描述
在这里插入图片描述

不知道为什么我的谷歌浏览器不能复制network中的User-agent 然后我用到了抓包工具fiddler复制了User-agent

在这里插入图片描述
在这里插入图片描述

(后来我的”谷歌浏览器不能复制network中的User-agent”问题解决了,原来是我没有用鼠标划取选择的内容…)

(3)代码如下: 1、确定爬取的url路径,headers参数

代码语言:javascript
复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) 
##构建一个base_url来存放URL地址
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
##构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

(1)首先先导入第三方模块

代码语言:javascript
复制
import requests  ##安装后导入第三方模块 requests (HTTP 客户端库)

(2)创建response,data 2、发送请求 – requests 模拟浏览器发送请求,获取响应数据

代码语言:javascript
复制
response = requests.get(base_url, headers=headers)
##调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入
##进方法中去,并创建一个response对象来接收
data = response.text
##从response对象中获取数据,因为数据是字符串类型的所以用".text"来提取,
##并建立一个data变量来接收

(3)但是首先要先输出测试代码是否可以成功运行,确认数据存在后再进行下一步操作

代码语言:javascript
复制
print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉
在这里插入图片描述
在这里插入图片描述

在pycharm中搜索“圣诞节美女”,因为有显示,代表代码可以成功运行,进行下一步的操作

在这里插入图片描述
在这里插入图片描述

3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

(1)获取当前页面的每一个URL地址

在这里插入图片描述
在这里插入图片描述

可以看见a标签中的详细地址,点进去后发现当前相册每一个地址都是包裹在a标签下的,每一个a标签对应的href值即是每一个相册的url地址

(2)把相册内部的图片解析出来 进入一个相册后发现img标签内有src,点击进去后看见该相册内的一张高清大图

在这里插入图片描述
在这里插入图片描述

相册内部每一个src属性就是每一张图片的链接地址

(3)安装第三方模块

代码语言:javascript
复制
import parsel    ##安装后导入第三方模块 parsel(数据解析模块)
import os        ##系统自带模块,无需安装,直接导入第三方模块 os

( 4 ) 将data转化为Selector对象 3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理

代码语言:javascript
复制
html_data = parsel.Selector(data)##转换对象,将data数据传递进变量

html_data中,即将data数据自动转换为Selector对象 用“print(html_data)”打印html_data发现他就是一个Selector对象

在这里插入图片描述
在这里插入图片描述

(5)将data转化为Selector对象 将data转化为Selector对象解析成功后才可以与xpath进行交互 在页面中按<class=”Left_bar>,

  • ,顺序查找
在这里插入图片描述
在这里插入图片描述

并在最后a标签中的href属性,再用“.extract()”方法将Selector数据取出

代码语言:javascript
复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class="Left_bar"进行精确定位

再按照同样跨节点的方式依次找到

  • ,,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收

(6)打印data_list

“print(data_list)”打印data_list出来发现是一个一个的字符串

4、保存数据

(1)观察不同的分页,得出规律

发现是通过26_xxx最后一个数字来实现分页效果 for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束

代码语言:javascript
复制
base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
##构建一个“.format(page)”来传入页数

(2)获取相册地址与名字,并对返回的列表分组

代码语言:javascript
复制
data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
#获取相册的名字,返回的是一个列表

#使用列表推导式对列表进行分组
data_list = [data_list[i:i + 2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组

(3)遍历列表并创建图片文件夹 遍历列表元素

代码语言:javascript
复制
for alist in data_list:
    html_url = alist[0]#取到每一个相册的URl地址
    file_name = alist[1]#取到每一个相册的名称
 创建图片的文件夹
root = 'G:/COS1/'
if not os.path.exists('img\\' + file_name):
    os.mkdir('img\\' + file_name)#如果没有存在当前文件夹,则创建文件夹
print('正在下载:', file_name)#打印出正在下载的图片名称

(4)观察每一个相册页面的地址,发现规律

代码语言:javascript
复制
for url in range(1, int(page_num) + 1):
    # 构建相册翻页的url地址
    url_list = html_url.split('.')
    all_url = url_list[0] + '.' + url_list[1] + '.' + url_list[2] + '_' + str(url) + '.' + url_list[3]
    #嵌套出当前相册的每一张图片的URL地址,并拼接

(5) 发送详情页的请求,解析详情页的图片url地址

代码语言:javascript
复制
response_3 = requests.get(all_url, headers=headers).text
html_3 = parsel.Selector(response_3)
img_url = html_3.xpath('//div[@class="pic-meinv"]//img/@data-original').extract_first()
#因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
 #将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class="pic-meinv"进行精确定位
 #再按照同样跨节点的方式依次找到<img>,@a标签中的hdata-original属性,并创建一个img_url变量来接收
#使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
 print(img_url)

#请求图片的url地址
img_data = requests.get(img_url, headers=headers).content

 #图片的文件名
img_name = str(url) + '.jpg'#准备文件名称
#取当前for循环的索引做为文件名

(5)保存数据

代码语言:javascript
复制
with open('img\\{}\\'.format(file_name) + img_name, 'wb') as f:
    print('下载完成:', img_name)
    f.write(img_data)#写入文件数据

完整代码如下:

代码语言:javascript
复制
import requests  ##安装后导入第三方模块 requests(HTTP 客户端库)
import parsel    ##安装后导入第三方模块 parsel(数据解析)
import os        ##系统自带模块,无需安装,直接导入第三方模块 os(操作系统交互功能)

for page in range(1, 6):#构建翻页的范围,从1开始到6(即第5页)结束
    print('=======================正在爬取第{}页数据====================='.format(page))
    # 1、确定爬取的url路径,headers参数
    base_url = 'http://www.win4000.com/meinvtag26_{}.html'.format(page) ##构建一个base_url来存放URL地址
    ##构建一个“.format(page)”来传入页数
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4181.9 Safari/537.36'}
    #构建一个hearders参数来伪装为一个浏览器用户,构造出一个身份

    # 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据
    response = requests.get(base_url, headers=headers)
    #调出静态网页的get方法,获取该网页的URL,将关键字base_url和headers传入进方法中去,并创建一个response对象来接收
    data = response.text
    #从response对象中获取数据,因为数据是字符串类型的所以用".text"来提取,并建立一个data变量来接收
    # print(data)##确定代码是否可以成功运行,如果成功运行则可以注释掉

    # 3、解析数据 -- parsel  转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理
    html_data = parsel.Selector(data)
    #转换对象,将data数据传递进变量html_data中,即将data数据自动转换为Selector对象
    data_list = html_data.xpath('//div[@class="Left_bar"]//ul/li/a/@href|//div[@class="Left_bar"]//ul/li/a/img/@title').extract()
    #获取相册的名字,返回的是一个列表
    #将转化为Selector对象的data_list运用xpath,在div中跨节点找到“class="Left_bar"进行精确定位
    # 再按照同样跨节点的方式依次找到<ul>,<li> ,<a>,@a标签中的href属性,再用“.extract()”方法将Selector数据取出,并创建一个data_list变量来接收
    #  print(data_list)

    # 使用列表推导式对列表进行分组
    data_list = [data_list[i:i + 2] for i in range(0, len(data_list), 2)]#将相册的名称和相册的url地址进行分组
    # print(data_list)

    # 遍历列表元素
    for alist in data_list:
        html_url = alist[0]#取到每一个相册的URl地址
        file_name = alist[1]#取到每一个相册的名称
        # print(html_url, file_name)

        # 创建图片的文件夹
        root = 'G:/COS1/'
        if not os.path.exists('img\\' + file_name):
            os.mkdir('img\\' + file_name)#如果没有存在当前文件夹,则创建文件夹
        print('正在下载:', file_name)#打印出正在下载的图片名称

        # 发送详情页的请求,解析出总页数
        response_2 = requests.get(html_url, headers=headers).text
        html_2 = parsel.Selector(response_2)
        page_num = html_2.xpath('//div[@class="ptitle"]//em/text()').extract_first()
        # print(page_num)

        for url in range(1, int(page_num) + 1):
            # 构建相册翻页的url地址
            url_list = html_url.split('.')
            all_url = url_list[0] + '.' + url_list[1] + '.' + url_list[2] + '_' + str(url) + '.' + url_list[3]
            #嵌套出当前相册的每一张图片的URL地址,并拼接
            # print(all_url)

            # 发送详情页的请求,解析详情页的图片url地址
            response_3 = requests.get(all_url, headers=headers).text
            html_3 = parsel.Selector(response_3)
            img_url = html_3.xpath('//div[@class="pic-meinv"]//img/@data-original').extract_first()
            #因为仅当他加载图片时才返回图片数据,所以这个网页是软加载图片
            # 将转化为Selector对象的html_3运用xpath,在div中跨节点找到“class="pic-meinv"进行精确定位
            # 再按照同样跨节点的方式依次找到<img>,@a标签中的hdata-original属性,并创建一个img_url变量来接收
            #使用“.extract_first()”提取出整一个数据,如果不加则只有一张图片
            # print(img_url)

            # 请求图片的url地址
            img_data = requests.get(img_url, headers=headers).content

            # 图片的文件名
            img_name = str(url) + '.jpg'#准备文件名称
            #取当前for循环的索引做为文件名

            # 4、保存数据
            with open('img\\{}\\'.format(file_name) + img_name, 'wb') as f:
                print('下载完成:', img_name)
                f.write(img_data)#写入文件数据
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020-07-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Python爬取网页图片
    • 一、爬取的网站内容
      • 二、爬取的网站域名
        • 三、完成内容
          • 四、爬虫步骤及代码分析
            • 1、分析目标网页,确定爬取的url路径,headers参数
            • 2、发送请求 – requests 模拟浏览器发送请求,获取响应数据
            • 3、解析数据 – parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理
            • 4、保存数据
          • 完整代码如下:
          相关产品与服务
          对象存储
          对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档