前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python 协程并发下载斗鱼美女图片

Python 协程并发下载斗鱼美女图片

作者头像
Devops海洋的渔夫
发布2019-05-31 10:53:10
1.3K0
发布2019-05-31 10:53:10
举报
文章被收录于专栏:Devops专栏Devops专栏Devops专栏

爬虫技术第一步

作为爬虫技术第一步,就是可以使用爬取下载图片作为示例。 那么爬取图片,我们肯定去爬取美女图片作为第一步操作示例呀。 那么下面一个最重要的工作。 什么是最重要的工作?

当然是去寻找美女图片呀

去斗鱼找美女图片

来点击这里访问颜值直播间:

这里跳过爬取页面,使用正则获取图片的url地址的步骤,直接找几张图片的url地址进行并发下载测试。

打开chrome浏览器的F12淡定点击图片,就可以看到里面的图片url地址啦。

复制一个图片地址,使用浏览器打开看看。

不要心急打开

使用urllib库下载第一张图片

首先在ipython3测试一下urllib库:

In [1]: import urllib.request   

In [3]: req = urllib.request.urlopen("https://www.baidu.com")                               

In [4]:                                                                                     

In [4]: req.read()                                                                          
Out[4]: b'<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(kk.replace("https://","http://"));\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>'

In [5]:

从上面已经可以看出爬取了浏览器打开百度的页面内容了。

下面就来写个下载图片的示例:

[root@server01 download_image]# cat download_image.py 
#coding=utf-8
import urllib.request

# 根据url地址打开图片内容
req = urllib.request.urlopen("https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg")

img_content = req.read() # 将图片内容进行读取

with open("meinv.jpg","wb") as f:
  f.write(img_content)

执行下载如下:

[root@server01 download_image]# ls
download_image.py
[root@server01 download_image]# 
[root@server01 download_image]# python3 download_image.py 
[root@server01 download_image]# 
[root@server01 download_image]# ls
download_image.py  meinv.jpg
[root@server01 download_image]# 

此时可以看到多了一个meinv.jpg文件,放到桌面来查看一下。

好了,下载第一张图片的示例已经有了,那么下面大家应该都懂了。 那么是将其写成方法,然后同时并发执行下载。

使用gevent并发下载美女图片

[root@server01 download_image]# cat test.py 
#coding=utf-8
import urllib.request
import gevent
from gevent import monkey
import time

monkey.patch_all() # 将程序中用到的耗时操作代码,换为gevent中自己实现的模块

def download_image(image_name,image_url):
    # 根据url地址打开图片内容
    req = urllib.request.urlopen(image_url)
    
    img_content = req.read() # 将图片内容进行读取
    
    with open(image_name,"wb") as f:
      f.write(img_content)

    time.sleep(0.5)
    print("download %s",image_name)

def main():

   gevent.joinall([
    gevent.spawn(download_image,"1.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg"),
    gevent.spawn(download_image,"2.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/03/3933251_20181103191841_small.jpg"),
    gevent.spawn(download_image,"3.jpg","https://rpic.douyucdn.cn/live-cover/roomCover/2018/11/06/572d6afd241adb4740ce0dfba086f09e_big.jpg"),
    gevent.spawn(download_image,"4.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/11/19/3318573_20181119225716_small.jpg"),
    gevent.spawn(download_image,"5.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/01/4566947_20181201145747_small.jpg"),
    gevent.spawn(download_image,"6.jpg","https://rpic.douyucdn.cn/live-cover/appCovers/2018/12/11/2348814_20181211031627_small.jpg"),
   ])
   

if __name__ == "__main__":
   main()
[root@server01 download_image]# 

执行如下:

[root@server01 download_image]# python3 test.py 
download %s 4.jpg
download %s 6.jpg
download %s 2.jpg
download %s 1.jpg
download %s 5.jpg
download %s 3.jpg
[root@server01 download_image]# ls
1.jpg  2.jpg  3.jpg  4.jpg  5.jpg  6.jpg  test.py

好了,这样就下载完图片了,放到桌面淡定看看。

淡定成功。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.12.20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 爬虫技术第一步
  • 去斗鱼找美女图片
  • 使用urllib库下载第一张图片
  • 使用gevent并发下载美女图片
相关产品与服务
云直播
云直播(Cloud Streaming Services,CSS)为您提供极速、稳定、专业的云端直播处理服务,根据业务的不同直播场景需求,云直播提供了标准直播、快直播、云导播台三种服务,分别针对大规模实时观看、超低延时直播、便捷云端导播的场景,配合腾讯云视立方·直播 SDK,为您提供一站式的音视频直播解决方案。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档