前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python爬取知乎话题图片

python爬取知乎话题图片

作者头像
编程珠玑
发布2019-09-03 10:51:03
7000
发布2019-09-03 10:51:03
举报
文章被收录于专栏:编程珠玑编程珠玑

前言

什么是网络爬虫(也叫网络蜘蛛)?简单来说,是一种用来自动浏览万维网程序或脚本(网络爬虫的典型应用就是我们所熟知的搜索引擎)。既然如此,那么我们也可以写一个程序,用来自动浏览或者获取网页上的信息。本文将介绍利用python自带库编写一个简单的爬虫程序来获取网络信息。

准备

本次爬取实例可能涉及以下知识:

  • python基础知识
  • urllib库使用
  • http基本知识
  • html/js基本知识
  • 正则表达式

环境准备:

  • linux(windows基本适用)
  • python3
  • chrome浏览器

爬取目标

本次爬取的目标是知乎话题下的图片。

分析

以知乎话题你有哪些压箱底的表情包?为例

(链接地址:https://www.zhihu.com/question/48132860): 用chrome浏览器打开该链接。鼠标右键-检查元素,在elements页移动鼠标,当鼠标移动到某元素时,页面会被选中,因此我们可以找到第一张图片的img标签,而在标签中,我们可以找到图片的url地址,复制url地址,在浏览器打开,我们就看到了需要下载的表情包了。 至此,整体思路就很简单了:访问话题页--找到img标签--获取图片url地址--下载图片。

查找链接

代码

代码语言:javascript
复制
#!/usr/bin/python3
#coding=utf-8
import urllib.request as request
import urllib.parse as parse
import string
import sys
import re
import os
import urllib.error as error

'''
获取url中的图片
url:链接地址
dirpath:保存路径
'''
def getUrlImage(url,dirpath):

    dldNum=0
    #存储目录不存在时,创建目录
    if not os.path.isdir(dirpath):
        os.makedirs(dirpath)

    data = request.urlopen(url).read()
    page_data = data.decode('gbk','ignore')
    #获取img标签数据
    page_image = re.compile('<img src=\"(.+?)\"')
    #循环获取img标签中的图片

    for image in page_image.findall(page_data):
        #匹配数据中的图片
        pattern = re.compile(r'^https://.*.(jpg|png|gif|jpeg)$')
        if  pattern.match(image):
            print (image)
            try:
                extension =  GetFileNameAndExt(image)
                #读取图片内容
                image_data = request.urlopen(image).read()
                image_path = dirpath+'/'+str(dldNum)+extension
                dldNum += 1
                print(image_path)
                #保存图片
                with open(image_path, 'wb') as image_file:
                    image_file.write(image_data)
                    image_file.close()
            except error.URLError as e:
                print('Download failed')
'''
获取文件名中的扩展名
'''
def GetFileNameAndExt(filename):
    (filepath,tempfilename) = os.path.split(filename);
    (shotname,extension) = os.path.splitext(tempfilename);
    return extension
'''
入口函数
带两个参数
参数1:话题链接地址
参数2:图片保存路径
'''
if __name__ == "__main__":
    if(len(sys.argv) < 2):
        print("usage:./download_spider.py url  savePath")
    else:
        print("the url is "+str(sys.argv[1]))
        print("the save path is "+str(sys.argv[2]))
        url = sys.argv[1]
        savePath = sys.argv[2]
        getUrlImage(url,savePath)

运行

有两个参数,第一个参数是url,即话题的链接,第二个参数是所要保存图片的路径。 在linux下运行,可以看到正在不断保存话题图片

代码语言:javascript
复制
./getZhiHuImage.py  https://www.zhihu.com/question/48132860 ./test

程序执行完成后可以在目的目录下发现下载好的图片,接下来就可以开心地去斗图啦。

下载结果

下载结果2

最后说两句

本文仅简单利用了python自带urllib库完成了话题图片的获取工作,但更多时候,爬取网络资源要更困难得的多,要获取的内容也不像本文例子中那么明显易得到,比如可能需要模拟登录,验证码识别,伪装成浏览器,去重等等,这里不再展开。但是Python中自带urllib及urllib2 库,基本上能满足一般的页面抓取了。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-09-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 编程珠玑 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 准备
  • 爬取目标
  • 分析
  • 代码
  • 运行
  • 最后说两句
相关产品与服务
验证码
腾讯云新一代行为验证码(Captcha),基于十道安全栅栏, 为网页、App、小程序开发者打造立体、全面的人机验证。最大程度保护注册登录、活动秒杀、点赞发帖、数据保护等各大场景下业务安全的同时,提供更精细化的用户体验。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档