首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >python下载图片

python下载图片

作者头像
py3study
发布2020-01-12 20:46:31
1.3K0
发布2020-01-12 20:46:31
举报
文章被收录于专栏:python3python3

在diveintopython网站上,http://diveintopython.org/html_processing/extracting_data.html可以找到一些html处理的例子,比如这个类可以用来获取html页面中的href标签内容。

from sgmllib import SGMLParser class URLLister(SGMLParser): def reset(self): SGMLParser.reset(self) self.urls = [] def start_a(self, attrs): href = [v for k, v in attrs if k=='href'] if href: self.urls.extend(href) 将这个文件href的地方都改成src,start_a改成start_img 即: from sgmllib import SGMLParserclass URLLister(SGMLParser):     def reset(self):                                      SGMLParser.reset(self)         self.urls = []    def start_img(self, attrs):                             src = [v for k, v in attrs if k=='src']         if src:             self.urls.extend(src) 保存代码内容为urllister.py文件,放在python安装目录即可,这样就可以用来分析网页的图片地址了。 下面为图片下载的程序内容 import urllib2 import urllib import os import urllister # 这是来自http://diveintopython.org/html_processing/extracting_data.html#dialect.extract.urllib的一个分析html页面的类 p_w_picpathpath=[]

#cd 函数用于判断路径是否正确,如正确则改变当前工作路径 def cd(ss):     try:         os.chdir(ss)         print '改变工作目录为'+ss         return 0     except:         print '输入图片保存路径有误,请重新输入'         return 1 #addp_w_picpathpath,该函数将图片路径添加到p_w_picpathpath这个list中 def addp_w_picpathpath(surl):     if 'http://' in surl         p_w_picpathpath.append(surl)         print '找到图片:'+surl.split('/')[-1]+'图片地址为:'+surl     else:          surl=str_url+surl         p_w_picpathpath.append(surl)         print '找到图片:'+surl.split('/')[-1]+'图片地址为:'+surl

#download p_w_picpaths def p_w_picpath_down(list_p_w_picpath):     if not list_p_w_picpath:         print "该页面没有任何图片"     else:         for p_w_picpath in list_p_w_picpath:             try:                 urllib.urlretrieve(p_w_picpath,p_w_picpath.split('/')[-1]) #利用p_w_picpath.split('/')[-1]获得文件名                 print "来自"+p_w_picpath+"的图片保存成功!"             except:                 print "来自"+p_w_picpath+"图片没有保存成功,继续保存下一张图片...."

print "请输入网页的url地址:" str_url=raw_input()

print "请输入图片保存地址,如果直接回车将默认保存到我的文档"

temp=1 while temp:     str_save=raw_input()     if not str_save:         str_save='E:\Fei_Doc'     temp=cd(str_save) try:     sock=urllib2.urlopen(str_url)     print "页面连接成功!开始获取图片地址……" except:     print "sorry,输入的地址有误或页面无法连接,程序将自动退出"

parser=urllister.URLLister() parser.feed(sock.read()) sock.close() parser.close() for url in parser.urls:     addp_w_picpathpath(url) #调用图片下载函数 p_w_picpath_down(p_w_picpathpath)

#程序结束 尽管这个程序能基本上解决问题,不过我发现有一些不足: 1、如果页面的img标签后面没有直接跟src属性,比如复杂一点的img代码: <img border="0" onload=" function { javascript:     if (this.width > screen.width - 333) {         this.width = screen.width - 333;     } } " src="http://bbs.263.net/forumData/119/2860134_1.jpg" alt="按此在新窗口浏览图片" />

那么urllister便无法识别了。不过这个问题解决起来比较容易,直接对html代码每行代码进行分析,利用split('src'),可以得到所有src标签的内容,然后根据后缀是否为jpg,gif等得到图片文件地址。

2、上面的程序只是对地址为http开始的图片以及当前url下面目录的图片进行处理,如果src里面的内容以“../p_w_picpaths“ 或者 “/“开头,则需另外处理。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-08-15 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档