首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Python资源

这个玩意之前也发过,大致用法就是输入资源名字,然后就会有一堆网盘资源跳出来了,但是讲道理,如果资源一多,那么就会很乱,所以改版了一次,用户想要哪一个的资源,就输入指定ID的资源,就可以获得那个资源了 ?...后来又发现了一个新问题,就是一页只能由10个资源,而这个程序不支持翻页,所以又多def了一个,改版后的效果图如下 ?...== []: xxx else: xxx 如果存在下一页,那么就交由另外一部分来处理,完一页的资源后,若没有想要的资源,输入y (大小写都可以)就可以自动取下一页的资源内容了...,如果这一页有想要的资源,输入N就可以退出,并输入资源ID后就可获得该资源的网盘链接了 当然,为了避免大小写的问题,我在获取了用户输入的东西后,自动全部大写 confirm = input("是否取下一页内容...基本完成 v1.2 顺便获取网盘链接密码 功能实现 v2.1 更改了结构,用户可选择指定的资源而不是全盘,界面看起来更美观 美观了一下 v3.1 增加了翻页功能 Done 有需要的可以自行下载,

1.7K10
您找到你想要的搜索结果了吗?
是的
没有找到

Python资源-源码

,encoding='gb18030') 这个东西比较有意思,不单可以在这里这么用,比如微信消息时也可以这么用 那么因为网站关闭的关系呢,所以大部分内容都是靠脑补,8喜勿喷,喷也不会发生什么事情...which_video(num,urllist): num = int(num)-1 turl=urllist[num] # 选择指定url 选择好了url后,就开始打开对应的url,然后进行内容...str(ps)): print("网盘密码为: "+ps.encode('utf-8').decode('utf-8')[-4:]) 这里就是全部的工作了,那么多余的就是那个多页的内容了...上一个def中,检测到了存在下一页的话,就return一个值,告诉程序存在下一页,得换个操作,其实和没有下一页的操作是一样的,就是多了询问和的功能而已 ......BeautifulSoup(ehtml,"html5lib") elif confirm.upper() == ("N"): return url_list #如果为N的话,直接进行资源的操作

1.1K10

英文演讲资源

记录下使用python网页并下载资源的过程....动机 前段时间制定计划,每天上下班路上听点英语演讲音频练练听力,用的手机App是喜马拉雅,上面资源很丰富,但是有两个问题,一是有广告,想想你快睡着的时候突然来15秒字正腔圆的广告是什么感觉,二是费流量,...学习英语的网站有不少,也可以提供下载,但一个一个右键另存为就不符合咱程序员的身份了,因此爬虫搞起! 基础知识 取之前,复习下需要的知识,当然这次任务很简单,这里只是总结下. python基础....如常见的标签tag,CSS中的class 爬虫相关的库. urllib. 提供接口来打开网页,下载资源 BeautifulSoup....,而每一个演讲都是独立的,可以使用多进程进行加速 除了多进程,还有异步IO,协程等方式可以加速 参考 小e英语_英语演讲 莫烦python_爬虫基础 BeautifulSoup4.2.0中文文档

79310

Python爬虫小说

selenium import webdriver from selenium.webdriver.common.desired_capabilities import DesiredCapabilities 一章内容...选择的小说是你是我的城池营垒,如果要把所有章节取下来就要点进每一章然后去,一开始觉得有点击所以要用selenium,但是写到后面发现传每一章的url就可以不用模拟点击,所以可以不用selenium...'a+', encoding='utf-8') print(title) str = div.text + "\n\n" f.write(title) f.write(str) f.close() 所有章节...把上面的一个章节封装成一个函数,一会调用。...链接都是有长度相等的字符串,所以可以用切片的方法获取每一章的链接: for li in all_li: str_0 = str(li) str_0 = str_0[9: 31] 然后把链接传到每一章的函数里就可以完成整章小说取了

59510

Python爬虫实战——小说

今天分享一个简单的爬虫——小说。 01 页面分析 ---- 首先我们进入某小说网的主页,找到免费完本的页面。 然后随便挑一本小说点击进入小说的详细页面,点击查看目录。...content.text + "\n") # print(content.text) print(url[0] + "——已完毕...cnt += 1 except Exception as e: print(e) 02 爬虫获取 ---- 我们封装获取各个章节Url的类和获取各个章节内容的类...StartSpider.py from SpiderQiDian.GetChapterContent import * if __name__ == '__main__': # 要小说的url...getChapterContent() 运行时状态如下图所示: 项目目录如下图所示: 最后,代码放在了码云git仓库中 https://gitee.com/hanxianzhe/spider 欢迎大家收藏,将持续更新一些爬虫项目

2.7K10

Python爬虫入门:pixiv

终于想开始自己想的网站了。于是就试着P站试试手。 我的图的目标网址是: http://www.pixiv.net/search.php?...一开始以为不用登陆,就直接去图片了。 后来发现是需要登录的,但是不会只好去学模拟登陆。 这里是登陆网站 https://accounts.pixiv.net/login?...点击目标的位置 点开ul这个标签,发现图片全部都是在这里面的,因为我们要大一点的图(个小图有什么用啊!)...问了下别人应该是被反了。 于是去搜了一下资料,http://cuiqingcai.com/3256.html,照着他那样写了使用代理的东西。(基本所有东西都在这学的)。 于是第一个小爬虫就好了。...不过代理的东西还没怎么懂,到时候看看,50页了两个多钟。 对了。可能网站的源代码会有改动的。因为我吃完饭后用吃饭前的代码继续工作的时候出错了,然后要仔细观察重新干。

3.7K30
领券