首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

python鬼灭漫画+简单JS分析

作者:皖渝 源自:快学python 本次仅供学习,无任何商业用途 猪油骨,拿来卤~今天,来分享一下python图片+简单JS分析 网址:漫画地址(这个网站只更新到188话,实际上已经有200...解密 点击进入第一话后,分析网页源码,发现图片保存在a标签下的img中,但是需要的src是用javascript写的!...src='"+m201304d+"newkuku/2016/02/15/鬼灭之刃][第1话/JOJO_001513.jpg' 其中,m201304是加密的部分,这个网站比较简单,直接找到js4.js文件...') if __name__=='__main__': get_all_img() 最终的漫画如下(这里仅作示例,只取了前10话的内容): ?...10话大概取了25分钟左右,算下来,完188话,也要7个多小时....后续可以用多进程方法加速一下速度。

48610

Python资源

class="next page-numbers"]') if next_page == []: xxx else: xxx 如果存在下一页,那么就交由另外一部分来处理,完一页的资源后...,若没有想要的资源,输入y (大小写都可以)就可以自动取下一页的资源内容了,如果这一页有想要的资源,输入N就可以退出,并输入资源ID后就可获得该资源的网盘链接了 当然,为了避免大小写的问题,我在获取了用户输入的东西后...,自动全部大写 confirm = input("是否取下一页内容(Y/N): ") if confirm.upper() == ("Y"): xxx 下面是一个改版的流程 版本...功能 备注 v1.0 获取资源名和链接 第一小步 v1.1 自动获取百度网盘链接 基本完成 v1.2 顺便获取网盘链接密码 功能实现 v2.1 更改了结构,用户可选择指定的资源而不是全盘,界面看起来更美观

1.7K10

Node.js 网页图片

利用 Node.js 一个网页,通过第三方模块 cheerio.js 分析这个网页的内容,最后将这个网页的图片保存在本地。...根据DOM结构利用 cheerio 模块分析出图片文件的地址,再次请求这个地址,最后将得到的图片数据储存在本地。 项目目录 image.png img 文件夹用来存储图片文件。...node_modules 文件夹是模块默认的保存位置。 index.js 文件是整个项目的入口地址。 config.js 文件是配置文件。 analyze.js 文件用来存储分析 DOM 的方法。...config.js 文件 配置网页地址及图片存放路径 // 网页地址 const url = 'https://unsplash.com/photos/RDDYS5DFo08'; // 图片文件夹路径...imgDir = path.join(__dirname, 'img'); module.exports.url = url; module.exports.imgDir = imgDir; analyze.js

4.2K30

Python爬虫系列:小说并写入txt文件

Python爬虫系列 ——小说并写入txt文件 本教程使用的单线程单本下载小说代码会不定期维护,最新源码及相关教程以CSDN博客为主,教程所说的多线程多本由于博主时间有限,暂时不做维护,仅作为一个教程供大家参考...文章介绍了如何从网站中小说并写入txt文件中,实现了单章节写,整本写,多线程多本写。...本文是一个教程,一步步介绍了如何批量小说内容以及存储这是txt文件中,以下是项目源码地址。...运行效果 8.多线程多本小说 同样的,在此之前如果对于python线程不了解的可以阅读以下文章: Python 多线程 关于多线程的代码就不过多介绍了,在项目源码中会有相关的使用方法...;编号为2的为还在下载的小说;编号为3的文件是下载错误日志,当不存在相关编号小说,则会记录在该文件中,下图为文件内容;编号为4的为每100本小说的简介,在我们通过该脚本,就可以知道所的小说有哪些,通过然后通过编号就可以找到对应小说

2.7K41

Python资源-源码

re sys io sys和io主要是用来转字符串的,如果的结果是特殊符号或者是例如韩文这样的文字的话,爬虫是会报错的,得这么来一下让他默认输出的都是gb18030编码 import sys import...io sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='gb18030') 这个东西比较有意思,不单可以在这里这么用,比如微信消息时也可以这么用...which_video(num,urllist): num = int(num)-1 turl=urllist[num] # 选择指定url 选择好了url后,就开始打开对应的url,然后进行内容...上一个def中,检测到了存在下一页的话,就return一个值,告诉程序存在下一页,得换个操作,其实和没有下一页的操作是一样的,就是多了询问和的功能而已 ......(ehtml,"html5lib") elif confirm.upper() == ("N"): return url_list #如果为N的话,直接进行资源的操作

1.1K10

Python|书籍信息

1.前言 爬虫可以有助于快速地从网页中获取想要的信息,从而大大减少工作量今天小编就用实际案例为大家讲解如何网站的一些书籍信息。...2.环境配置 Pycharm,python3,爬虫库request,re模块。 3.目标 爬虫的一般思路:分析目标网页,确定urlà发送请求,获取响应à解析数据à保存数据。...分析目标:要的目标是所有的书籍信息,但书籍信息不只是存在当前网页,需要找到所有有书籍信息的网页,并依次去。 找到头部信息:通过浏览器的检查获取到需要的头部信息。...整理思路:先在当前网页找到所有的存放书籍信息的网页,依次网页,再从中获得每本书的具体网页,最后取到需要的信息。 具体步骤如下: ? ? ? ? ? ? 第二步,发送请求,获取响应的数据。...截取数据:通过re模块,来截取数据,re模块是python自带的模块,具体的用法,可以上python官网查看。 ? 第四步:保存数据。 可以通过docx模块,创建一个文档并保存。 如下图: ?

1.3K20

Python|短视频

问题描述 python是一种非常好用的爬虫工具。对于大多数的爬虫小白来说,python是更加简洁,高效的代码。今天就用实际案例讲解如何动态的网站视频。...环境配置:python3:爬虫库request、json模块,Pycharm 爬虫的一般思路:分析目标网页,确定url—发送请求,获取响应—解析数据—保存数据 目标:方便看视频 解决方案 第一步...第三步:解析数据--json模块:把json字符串转换为python可交互的数据类型 转换数据:利用json进行转换,json是python的内置模块,json可以把json字符串转换为python可交互的数据类型...第四步:保存数据,保存在目标文件夹中 创建文件夹,写入获取的视频数据。 ? ?...with open('video\\' + video_title,'wb') as f: f.write(video_data) print('完成') 结语 动态网页的与静态网页的是非常相似的

1.6K40
领券