首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

CSDN 已下载资源自动批量评论脚本

Python 实现自动批量打分评论指定 CSDN 账号内所有下载过待评论的资源。...不过手动一个一个去评论真的很蛋疼……特别是 CSDN 还设了两个评论间隔不能小于 60 秒、刚刚下载的资源十分钟内不能评论的限制,评论几十个就得至少花个几十分钟折腾,所以想想这种耗时、无脑的活还是交给程序来完成吧...对于这类模拟 HTTP 请求然后可能频繁用到页面解析和正则表达式之类的活,用 C++ 写还是有点蛋疼的,用我那半生不熟的 Python 练练手正合适。...最终运行截图如下: 确认这种方式能有效拿到 CSDN 的分数: 总结 用 Python 干这种类型的活还是很有优势的,requests 和 BeautifulSoup 简直神器啊!...我那点蹩脚的 Python 底子之所以能还比较顺利地把这个流程写下来,实际上也得亏 CSDN 对请求的验证相对较松,比如像我代码里那样写, User-Agent 是带有 Python 字样的,而且很显然不是浏览器在访问

55510

CSDN 已下载资源自动批量评论脚本

Python 实现自动批量打分评论指定 CSDN 账号内所有下载过待评论的资源。...不过手动一个一个去评论真的很蛋疼……特别是 CSDN 还设了两个评论间隔不能小于 60 秒、刚刚下载的资源十分钟内不能评论的限制,评论几十个就得至少花个几十分钟折腾,所以想想这种耗时、无脑的活还是交给程序来完成吧...对于这类模拟 HTTP 请求然后可能频繁用到页面解析和正则表达式之类的活,用 C++ 写还是有点蛋疼的,用我那半生不熟的 Python 练练手正合适。...总结 用 Python 干这种类型的活还是很有优势的,requests 和 BeautifulSoup 简直神器啊!...我那点蹩脚的 Python 底子之所以能还比较顺利地把这个流程写下来,实际上也得亏 CSDN 对请求的验证相对较松,比如像我代码里那样写, User-Agent 是带有 Python 字样的,而且很显然不是浏览器在访问

87710

zblog批量删除mysql数据库里的垃圾评论

昨天也不知道是怎么了,博客评论显示1万多条数据,我滴神呀,我瞬间以为我的博客火了,我也出名了,哈哈~~~emmmmm别做梦了,都是垃圾评论,刷出来的。...好家伙,因为啥呀这是,给我这么大的礼物,不过我消受不起啊,看着后台的评论数量我脑袋都疼,咋删啊。。。 ?...看到了把,全是垃圾评论,没谁了~~~ 没办法只能去求助了,然后尔今大神给出了批量删除的思路同时提供了参考代码,然后试着去操作,切忌,最网站有任何操作一定一定一定要先备份数据,因为这个是后悔药。...成功的删除了16463条垃圾评论。最后感谢尔今大神的帮助,谢谢!...你可能会说,为什么评论总数是16516成功删除的却只有16463,很简单的,当初看到评论的时候没想到有辣么多,所以手动删除了一些,这个倒是不要紧,只要你设置的ID值对,就没有什么问题,切忌操作前需要备份数据库

2.7K20

Python 批量合并 Excel

经常使用 Excel 的人可能会遇到合并 Excel 文件的情况,如果需要合并的文件比较少,怎么搞都无所谓了,但要是需要合并的文件比较多,自己一顿 CV 操作也是比较耗时的,这时我们就可以考虑利用 Python...比如我们有很多很多个 Excel 文件需要合并,每个 Excel 文件格式都是相同的,我们合并文件只是对文件中数据的直接合并,这时利用 Python 来帮我们合并就事半功倍了,下面通过示例来做进一步了解...比如需要合并的 Excel 文件格式不同,最终合并的 Excel 文件格式也是自定义的,对于这种情况,如果对你而言是一个多次重复的工作,可以考虑利用 Python 进行编码实现;反之,则并一定要编码来实现合并

3.2K20
领券