前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python3爬虫下载pdf(一)

Python3爬虫下载pdf(一)

作者头像
py3study
发布2020-01-02 17:51:30
5.7K0
发布2020-01-02 17:51:30
举报
文章被收录于专栏:python3

Python3爬虫下载pdf(一)

最近在学习python的爬虫,并且玩的不亦说乎,因此写个博客,记录并分享一下。

需下载以下模块

  • bs4 模块
  • requests 模块

一、源码

代码语言:javascript
复制
"""
功能:下载指定url内的所有的pdf
语法:将含有pdf的url放到脚本后面执行就可以了
"""

from bs4 import BeautifulSoup as Soup
import requests
from sys import argv

try:
    ##用于获取命令行参数,argv[0]是脚本的名称
    root_url = argv[1]
except:
    print("please input url behind the script!!")
    exit()

##获得含有所有a标签的一个列表
def getTagA(root_url):
    res = requests.get(root_url)
    soup = Soup(res.text,'html.parser')
    temp = soup.find_all("a")
    return temp

##从所有a标签中找到含有pdf的,然后下载
def downPdf(root_url,list_a):
    number = 0
    ##如果网站url是以类似xx/index.php格式结尾,那么只取最后一个/之前的部分
    if not root_url.endswith("/"):     
        index = root_url.rfind("/")
        root_url = root_url[:index+1]
    for name in list_a:
        name02 = name.get("href")
        ##筛选出以.pdf结尾的a标签
        if name02.lower().endswith(".pdf"):
            pdf_name = name.string 
            number += 1
            print("Download the %d pdf immdiately!!!"%number,end='  ')
            print(pdf_name+'downing.....') 
             ##因为要下载的是二进制流文件,将strem参数置为True     
            response = requests.get(root_url+pdf_name,stream="TRUE")
            with open(pdf_name,'wb') as file:
                for data in response.iter_content():
                    file.write(data)

if __name__ == "__main__":
    downPdf(root_url,getTagA(root_url))

二、亮点

  1. 利用str.rfind("S") 函数来获得 Sstr 从右边数第一次出现的index
  2. 使用str.lower().endswith("S") 函数来判断str 是否以S/s 结尾
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019/10/16 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Python3爬虫下载pdf(一)
    • 一、源码
      • 二、亮点
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档