首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

也谈《Linux脚本自动备份网站数据到Dropbox》

其实要写这个完全是受小白童鞋的影响,看了她的《Linux脚本自动备份网站数据到Dropbox(上)》之后想着试试,结果看了下那篇文章最后的链接,拷贝了两个脚本,不试不知道一试发现神马都没法用!...MYSQL_PASS="123456789"// 数据库的密码 MYSQL_DATABASE="mars"//要备份的数据库 SqlFileName=sql_h4ck_$(date +%y%m%d)....MYSQL_PASS="123456789"// 数据库的密码 MYSQL_DATABASE="mars"//要备份的数据库 BACKUP_SRC="h4ck" //你要备份的文件 SITE_DIR=...#echo $FullBakName sh /var/sh/dropbox_uploader.sh upload $FullBakName //需要修正脚本的目录 #远程删除21天前的备份文件 sh /...脚本自动备份网站数据到Dropbox(下)》 ☆文章版权声明☆ * 网站名称:obaby@mars * 网址:https://h4ck.org.cn/ * 本文标题: 《也谈《Linux脚本自动备份网站数据

64220

SEO技巧:Shell脚本自动提交网站404死链到搜索引擎

好了,题外话到此结束,下面分享一下从 Nginx 日志分析并生成能提交到搜索引擎的死链文件的 Shell 脚本。...这个问题倒是好解决,等主题稳定了,页面静态缓存文件也就不会频繁被手工删除,整个网站的抓取响应时间应该就能回到正常水平。 再往下看,却发现网站抓取中出现的 404 数据也呈上升趋势: ?...看来这个工作还得重新做起来,并且实现自动化才行了。 二、Shell 脚本 说做就做,简单的写了个 Shell 脚本就搞定了!...脚本名称:网站死链生成脚本 脚本功能:每天定时分析网站前一天的 nginx 日志, 然后提取状态码为 404 并且 UA 为百度蜘蛛的抓取路径,并写入到网站根目录下的 death.txt 文件,用于提交百度死链...-mtime +30 -name "*20[1-9][3-9]*" | xargs rm -f     #③、网站死链生成(百度专用) #分析日志并保存死链数据 for url in `awk -v str

1.2K60
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    使用 Tampermonkey 编写高级跨网站自动化任务脚本

    脚本自动更新:您可以对脚本的检查更新频率进行设置。不再因为过时的脚本而产生漏洞。 安全:可以使用正则自定义运行脚本网站。...最简单的就是修改样式的样式,修改背景色、文本颜色,高级一点对网站数据进行控制,如一些广告拦截脚本、视频下载脚本、破解百度提取码、一键截图。...大量的脚本资源(在 2016 年 2 月份时,大约有 9400 个) 拥有可以从 Github 中进行脚本同步的功能 非常活跃的开放源代码发展模式 OpenUserJS 你可以在这个网站搜索适用于某个网站脚本...GitHub/Gist GitHub 全球所有程序员的集中地,这里存在大量优秀的脚本,只要是善于搜索。...高级 API 应用程序接口 在 TM 中,为了满足更多极客深度扩展网站,整合数据的需求,对外开发了更高层次的 API。

    5K10

    网站搜索大优化!

    使用 ES + 云开发实战优化网站搜索 大家好,我是鱼皮,今天搞一场技术实战,带大家优化网站搜索的灵活性。...ES + 云开发搜索优化实战 本文大纲: 鱼皮 - 网站搜索优化 背景 我开发的编程导航网站已经上线 6 个月了,但是从上线之初,网站一直存在一个很严重的问题,就是搜索功能并不好用。...技术选型 想要提高网站搜索灵活性,可以使用 全文搜索 技术,在前端和后端都可以实现。 前端全文搜索 有时,我们要检索的数据是有限的,且所有数据都是 存储在客户端 的。...比如个人博客网站,我们通常会把每篇文章作为一个文件存放在某目录下,而不是存在后台数据库中,这种情况下,不需要再从服务器上去请求动态数据,那么可以直接在前端搜索数据。...因此,我选择直接使用云服务商提供的 Elasticsearch 服务,这里选择腾讯云,自动为你搭建了现成的 ES 集群服务,还提供了可视化架构管理、集群监控、日志、高级插件、智能巡检等功能。

    1.8K60

    定时备份脚本分享(网站数据数据数据

    下面分享两个使用过的简单备份脚本: 1)网站数据备份 将网站数据/var/www/vhost/www.hqsb.com和/var/www/vhost/www.huanqiu.com分别备份到: /Data.../bin/bash #备份网站数据 /bin/tar -zvcf /Data/code-backup/www.huanqiu.com/www.huanqiu.com_`date +%Y%m%d_%H...code-backup/www.hqsb.com -type f -mtime +7 -exec rm -f {} \; [root@huanqiu_web5 ~]# crontab -l #每天凌晨5点备份网站数据...(自动删除10天前的备份文件) 数据库服务使用的是mysql,远程进行定时的全量备份,备份到本地,以防万一。...beta环境数据库(覆盖beta数据库): 将上面定时备份的数据包拷贝到beta机器上,然后解压,登陆mysql,source命令进行手动覆盖。

    1.7K80

    用Python脚本自动采集金融网站当天发布的免费报告

    一、前言 前几天在Python群【林生】问了一个Python数据采集的问题,需求如下: 想写一个脚本自动采集下载当天发布的这个页面的这几个免费报告,能保存成这个标题的pdf文件,网站是手机号注册就能下载这些文件的...二、实现过程 一开始以为网站有逆向,还觉得挺难的,后来发现完全是裸奔,就放心了,发布任务到接单裙,一下子就被抢了,毕竟送钱的单子,人见人爱,花见花开了,300元的爬虫单子,也很香了。...# -*- coding:utf-8 -*- """ 开发环境:Python 3.86 脚本名称:2023-07-07 报告厅baogaoting 创建日期:2023年07月07日 """ import...date.replace(k, '').strip() if dict_file_path.get(f"{date}_"+title): print(f"【状态】:已经下载了哦,自动跳过

    32040

    使用 shell 脚本自动获取发版指标数据

    解决方案 凡是重复性的劳动都有优化空间,凡是收集数据的工作都能用脚本完成——本着这两个原则,尝试做一个自动获取发版指标数据的 shell 脚本。...2022011521 的时刻去选择其它指标数据 (场景三);如果某个指标的数据列表没有 2022011521 这个时刻,脚本自动列出指标的全部时刻供用户重新选择 (场景二),一般是由于后台发版数据缺失了...,填个灰度发版指标就是分分钟的事儿了,程序员的效率又有提升,节约下的时间又可以愉快的摸鱼了~ 结语 本文介绍了一种使用 shell 脚本自动获取发版指标数据的方法,主要有以下几个关键点: curl 基于浏览器...把一些流程化的、可自动化的工作提炼出来用脚本、工具完成,会极大的节约时间、保证准确性并将注意力集中于该集中的地方,这就是所谓的工欲善其事、必先利其器吧。...后记 这个脚本总体上已经很方便了,美中不足的地方是前面提到的获取浏览器 cookie,如何自动登录 web 并记录 cookie?这个我又有一系列探索,后面会写成一篇单独的文章分享出来。

    99120

    通过Shell脚本对MongoDB数据定时自动备份

    在MongoDB中创建备份账号 使用管理员账号登录MongoDB数据库: [root@renwolecomdbs /]$ mongo MongoDB shell version v3.4.9 connecting...mkdir ${targetpath}/${nowtime} fi execute echo "============== back end ${nowtime} ==============" 以上脚本中...$ chmod +x mongo-delete 添加定时任务 为达到每天备份的目的,请设置任务计划: $ mkdir -p /var/log/mongobaklog $ crontab –e 添加以下自动备份和删除备份脚本内容...* * * /etc/init.d/mongo/mongo-delete 1 > /var/log/mongobaklog/mongo-delete & 前面所示分别为每日凌晨3.30和1.30执行该脚本的时间...其中 mongo-bak 和 mongo-delete 分别是脚本的名称。后面的是备份日志情况,如果有异常可以通过日志查询。

    95900
    领券