前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >爬取wallhaven壁纸网站图片

爬取wallhaven壁纸网站图片

原创
作者头像
^夜猫^
发布2023-08-22 10:57:42
2791
发布2023-08-22 10:57:42
举报
文章被收录于专栏:夜猫专栏夜猫专栏

以下代码仅供学习交流,主要功能wallhaven壁纸网站图片

程序运行后会在当前目录下生成bizhi的文件夹存储爬取到的图片

图片较大,建议爬取页数选取小一点5.需要第三方库

如遇到什么问题和报错请在评论区详细列出

代码语言:javascript
复制
import requests,os
from bs4 import BeautifulSoup
ab = 1
url = 'https://wallhaven.cc/search'
# 如果不存在bizhi文件夹,创建壁纸文件夹
if  not os.path.exists('bizhi'):
    os.mkdir('bizhi')
keyword = input('请输入你要爬取的壁纸关键词:')
start_page = int(input("起始页码:"))
end_page = int(int(input("结束页码:"))+1)
 
for i in range(start_page, end_page):
    data = {
        'q': keyword,
        'sorting': 'random',
        'ref': 'fp',
        'seed': 'pDRjMC',
        'page': i,
    }
    # 请求搜索链接
    resp = requests.get(url=url,params=data)
    # 解析搜索页面
    page = BeautifulSoup(resp.text,'html.parser')
    # 查找图片链接
    urls = page.find_all("a",attrs={'class':'preview'})
    for n_url in urls:
        href = n_url.get('href')
        # 请求图片链接
        resp1 = requests.get(url=href)
        # 解析图片页面
        page1 = BeautifulSoup(resp1.text,'html.parser')
        img = page1.find('img',attrs={"id":"wallpaper"})
        # 查找图片下载链接
        img_url = img.get('src')
        # 下载图片#
        resp2 = requests.get(url=img_url).content
        # 保存图片
        with open(f'./bizhi/{ab}.jpg','wb') as f:
                f.write(resp2)
        ab += 1
 
print('爬取完毕')

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档