前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >扒站==一条代码?

扒站==一条代码?

作者头像
神无月
发布2018-07-13 15:41:36
1.5K0
发布2018-07-13 15:41:36
举报
文章被收录于专栏:小文博客小文博客

在Linux下,通过一个命令就可以把整个站相关的文件全部下载下来。 wget -r -p -k -np [网址] 参数说明: -r   :  递归下载 -p  :  下载所有用于显示 HTML 页面的图片之类的元素 -k  :   在转换文件 X 前先将它备份为 X.orig。 -np:   不追溯至父目录 $ wget -r -np -nd http://example.com/packages/ 这条命令可以下载 http://example.com 网站上 packages 目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。 $ wget -m -k (-H) http://www.example.com/ 该命令可用来镜像一个网站,wget 将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。


wget不止适应于Linux

windows照样适用(下载文章附件)

解压运行bat批量处理文件就行

然后输入网址(我测试的百度的网站)

等几秒之后就会生成一个文件夹,里面就是源码了

windows版扒站神器见文章底部附件

Linux版命令为wget -r -p -k -np [网址]

下载地址:

文件名称:扒站神器(windows版)

文件大小:386KB适用版本:windows

更新日期:2016-11-20作者信息:www.qcgzxw.cn

点击下载 查看演示

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年11月20日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档