展开

关键词

8种基于文件的Linux

当下,能够快照整个服务器的屡见不鲜,然而在大多数情况下却是文件增量更加有用。 在这里,我们仅仅列出能够细分到单个文件对服务器的文件和数据进行还原的工具。 同时,因为它会用GnuPG处理档,可对档加密签名,所以生成的不会轻易泄露信息或是遭到篡改。 该软件没有图形界面,是属于真正UNIX人的。加密、增量、存储至亚马逊S3,这些它都可以做到。 BackupPC BackupPC是高性能的企业级系统,可以将Linux和Windows的桌面计算机至服务器磁盘。BackupPC高度可配置,也很容易安装维护。 sbackup sbackup套件(simple backup)是GNOME桌面环境的一个。所有的配置都可以通过GNOME实现。 它产生的均为增量,平台为服务器设计,支持所有流行的基于Linux的操作系统:Ubuntu、Debian、CentOS、Arch Linux。 为使用户安心,平台每天都会发送报告和提醒。

1.8K90

Linux文件自动

需求场景:将云上一台Linux服务器文件到本地服务器,一周一即可。面对这样一个需求,我们可能面临如下一些问题。1、式:是云服务器推文件到本地服务器写入,还是本地服务器从云服务器拉文件? 2、应考虑文件类型、大小、数量、增长速率等因素,对技术实现式的影响。3、技术实现:如何从一台服务器自动到另一台服务器呢?哪一个技术相对更安全可靠? 这里涉及的是文件,且实时性要求不高,最笨拙的式就是人工,由相关管理人员通过主动的式手工文件到本地服务器。但这是懒人的时代,机器能做的,干嘛用手来呢,我们来一起看看自动实现的一:SCP最简单的式,就是利用SCP来实现自动远程。 实施:云服务器作为服务端开启SFTP,提供连接地址、用户名、密码,白名单限制访问来源IP。客户端可根据操作系统类型,采用不同的技术措施定期下载

66430
  • 广告
    关闭

    90+款云产品免费体验

    提供包括云服务器,云数据库在内的90+款云计算产品。打造一站式的云产品试用服务,助力开发者和企业零门槛上云。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    8种基于文件的Linux解决

    在处理不同的Web项目时,我积累了大量的工具和系统服务,以便开发人员,系统管理员和DevOps的工作。 现在,有很多解决可以对整个服务器进行快照,但基于文件增量式在许多情况下更为有用。 在此列表中,只有那些允许您执行基于文件的和恢复服务器文件和数据库的解决。 用技术术语来说,它是一个开源的基于网络的程序。 在我看来,这是一个过时的纯接口解决。它仍然在更新,并在今年4月发布了最新版本。 ,通过网络将多台主机到磁带机磁带机或磁盘或光盘上。 BackupPC BackupPC是一个高性能的企业级系统,用于Linux和WinXX个人电脑和笔记本电脑到服务器的磁盘。 BackupPC具有高度可配置性,易于安装和维护。

    1.1K80

    8种基于文件的Linux解决

    而在本文中,只列出了可对服务器文件和数据库基于文件的还原解决。现在,有很多解决可以对整个服务器进行快照,但基于文件的增量在许多情况下更为实用。 BackupPCBackupPC 是一个高性能的企业级系统,用于 Linux 和 Windows 系列 PC 和笔记本电脑到服务器上。 BackupPC 具有丰富的配置,易于安装和维护。 sbackupsbackup 套件,全称 simple backup(简单),是基于 Gnome 桌面的解决。所有的配置都可以通过 Gnome 接口访问。 客户端上的工作可以由 cron-job 自动启动,另外一种更智能的解决是通过中央管理服务器远程启动客户端上的。 这相当于服务器领域的 SaaS 解决。在安装其 python 客户端后,用户就可以通过 Web 管理界面来管理文件和数据库的

    1.2K100

    MySQL常见

    MySQL常见有以下三种:       mysqldump + binlog       lvm + binlog          xtrabackup 本例为便演示,数据库里面数据为空。 : y Logical volume snap_data successfully removed2.3增量,只需和定时复制binlog到目录下面即可2.4恢复,只需要直接拷贝目录下的文件即可 使用innobakupex时,其会调用xtrabackup所有的InnoDB表,复制所有关于表结构定义的相关文件(.frm)、以及MyISAM、MERGE、CSV和ARCHIVE表的相关文件,同时还会触发器和数据库配置信息相关的文件 #出现此选项代表完成。 (1)过程快速、可靠;(2)过程不会打断正在执行的事务;(3)能够基于压缩等功能节约磁盘空间和流量;(4)自动实现检验;(5)还原速度快; 因此建议学会熟练使用xtrabackup进行和还原

    2K00

    mysql数据

    制定合理的mysql数据,并写脚本,要求把数据传输到服务器。 需求:本地server访问server不需要输入密码(做双机密钥认证)本地脚本不需要输入提示任何输入用户名和密码每天晚上3点开始执行,并把日志输出到指定文件。 本机数据保存1个月,server保存3个月。 的文件夹授权$ sudo vi root.sshauthorized_keys 复制公钥到此文件在 etcmy.cnf中添加mysqldump的user和passworduser=rootpassword123整个数据库脚本

    54730

    MySQL定时

    本片文章介绍的是利用Linux自身的crontab定时任务功能,定时执行数据库的脚本。 技术要点:数据库dump命令shell脚本Linux定时任务crontab数据dump数据库都有一个导出数据库内数据和结构的命令,就是。 将的数据还原会将原来的数据中的表删了重建,再插入中的数据,这是恢复。这一点需要注意,如果恢复之前的数据比的多,恢复后多的数据就没有了。 列出我常用的两种数据库的和恢复命令postgresql: pg_dump -h -U >恢复 psql -s -f mysql: mysqldump -h -u -p > 恢复 mysql -u -p < shell脚本要完成一个功能完善的,就需要shell脚本。

    20810

    系统合集-系统

    导读 | 精选一、特点此是基于批处理脚本和任务计划技术,针对系统特有文件结构和数据库结构的特点,而形成的系统。 该特点:1.易用性好,通过编写批处理脚本并结合操作系统自带的任务计划功能,很容易实现对于平台文件和数据库文件的要求。 但此在设计上仍然还是有不足之处,对于系统容灾性要求高的用户,建议考虑双机热等专业容灾。 二、Windows环境下Windows 批处理文件,是将一系统命令按一定的顺序集合为一个可执行的文件,其扩展名为.bat,由DOS或Windows系统内嵌的命令解释器来解释运行。 在此中主要使用批处理命令来实现对系统平台文件和数据库文件的,将文件(平台文件、.DMP文件)到指定的存储介质(PC机硬盘或移动硬盘介质)中。

    71370

    系统合集-系统

    一、特点 此是基于批处理脚本和任务计划技术,针对系统特有文件结构和数据库结构的特点,而形成的系统。该特点: 1. 但此在设计上仍然还是有不足之处,对于系统容灾性要求高的用户,建议考虑双机热等专业容灾。 二、Windows环境下Windows 批处理文件,是将一系统命令按一定的顺序集合为一个可执行的文件,其扩展名为.bat,由DOS或Windows系统内嵌的命令解释器来解释运行。 在此中主要使用批处理命令来实现对系统平台文件和数据库文件的,将文件(平台文件、.DMP文件)到指定的存储介质(PC机硬盘或移动硬盘介质)中。 原理:使用批处理命令生成自动文件名,该文件名根据时间生成,唯一,便查找和恢复。使用exp命令导出数据库数据。使用rar 压缩工具对文件压缩归档,并自动删除文件,以节约磁盘空间。

    80350

    mysql还原xtrabackup

    摘要:mysql当数据库过大的时候,使用mysqldump的式进行是一种非常慢的操作,500G的数据就够你一天一夜,我发现了一种mysql快速,它使用文件存储的式进行,支持全量和增量 ,这里所写为全量式(如果可以接受开始到下次恢复之间的数据丢失时使用)。 事务日志应用到 出的数据并不能直接使用,因为出的数据是不一致的,我们还需要将同时出的事务日志应用到中,才能得到一完整、一致、可用的数据,xtrabackup称这一步操作为prepare 恢复数据 法一、此处使用该法,适用于部分数据库的法 数据目录在datamariadbdata,我们的数据库为cloud库。 )为空,如果不为空,手动删除,一般此法针对全量法。

    85480

    Mysql系列(1)--总结性梳理

    以下总结了mysql数据库的几种:一、binlog二进制日志通常作为的重要资源,所以再说之前先总结一下binlog日志~~1.binlog日志内容1)引起mysql服务器改变的任何操作 (5)策略,需要考虑因素如下实践成本锁时间时长性能开销恢复成本恢复时长所能够容忍丢失的数据量(6)内容 1)数据库中的数据2)配置文件 3)mysql中的代码: 存储过程,存储函数 ; 恢复时间点以后的内容复制时的同步位置标记:主从架构中的,主服务器数据。 实例说明:参考:Mysql系列(2)--mysqldump(全量+增量)操作记录lvm-snapshot:基于LVM快照的1.关于快照:1)事务日志跟数据文件必须在同一个卷上;2)刚刚创立的快照卷 将数据从移到MySQL数据目录;其执行式依赖于工具;4. 改变配置和文件权限;5.

    2K121

    最新gitlab迁移

    使用官迁移解决(一个很深的坑,网上有写是只是用低版本的,大家最好去官获取最新的迁移式。)步骤(我用的是docker)迁移文档在gitlab地址https:.. docker exec -t gitlab-backup create输出样例2020-10-15 07:23:04 +0000 -- Dumping database ... You will need these files to restore a backup.Please back them up manually.Backup task is done.导出会存储在 我在10月10日的时候有用就的式恢复是可以的。但是不知道为什么,15日正式操作的时候一直报异常,折腾了几个小时候后用官的终于恢复成功了。

    12710

    高校容灾 2.0

    本文叙述了高校业务系统及数据容灾 2.0 的应用探索和实践,介绍了数据库双活、应用秒级容灾和数据级实时、虚拟化平台等综合性创新应用,满足当前教育信息化 2.0 行动计划的信息安全需求,助力高校在等保 容灾 2.0 需要建设一套实时性更强的容灾系统,以实现业务系统数据实时保护及应用级业务接管,以符合下图的数据级向应用级容灾的趋势。 △容灾级别与能力三、容灾 2.0 的创新应用容灾 1.0,有基于硬件存储层架构,也有基于应用层架构。基于硬件存储层,建设和运维成本比较高。 英软件基于超低时延的数据复制技术,针对云和大数据环境下行业对容灾的新要求,提出了容灾 2.0。 △容灾 2.02.0 覆盖数据库系统故障、应用系统故障、单机单点故障、逻辑错误&病毒攻击、自然灾害等场景,满足高校在数据库双活、云灾、容灾秒级接管、数据持续保护等容灾需求,具了多层次

    25230

    轻量级MySQL:AutoMySQLBackup

    AutoMySQLBackup算不上出类拔萃,但作为轻量级MySQL,对一些迷你项目而言,它绝对值得尝试。 按部就班的设置USERNAME,PASSWORD,DBNAMES,BACKUPDIR,由于配置文件包含账号密码等敏感信息,所以可能需要考虑一下权限,另外还有一点需要说明的是邮件相关的设置,作为轻量级MySQL 万事俱,只欠东风,接着设置定时任务,比如说设定每天:shell> cp pathtoautomysqlbackup.sh etccron.dailyautomysqlbackupshell> chmod +x etccron.dailyautomysqlbackup如此一来,就大功告成了,会在你设定的目录中按日,周,月来存档。 提示:每天,日积月累可能会占用大量的磁盘空间,为了避免磁盘空间耗尽,定期删除旧的文件是必要的,比如删除N天前的文件,可以使用类似下面的shell命令:shell> find pathtobackupdir

    6530

    策略 - 单表的隐患与应对

    今天的例就是来分析下通过--single-transaction --master-data=2参数组合进行单表而引发的性能问题。 切换到root用户,查看定时任务通过crontab –l发现有一个每天上午 4点30分开始执行的mbak.sh脚本,查看脚本是mysqldump数据库,通过分析脚本发现这个脚本的逻辑是这样的:整库一次使用的是 --all-database参数分别每个数据库为一个文件单表一次,即一个表成一个文件部分脚本节选如下:所有的数据库一个文件的脚本? 每个库一个文件的脚本?每个表一个文件的脚本?很显然出问题的时候是在单个表,通过mbak.sh脚本的逻辑来看,是先全库,全库完成再单库,单库完成之后再单表。 改善调整策略:1、取消每个单表为一个文件,减少全局锁(经过生产环境实际测试mysqldump全库(17G数据)一次不到5分钟);2、如果有必要进行单表的话,禁用--master-data

    60370

    rancher迁移-与恢复

    针对 rancher 单容器部署式,如何迁移到新机器上?下面介绍下 rancher 2.5.3 的迁移操作。 大致思路是这样:先将旧 rancher 数据然后传到新的节点上重启一个新的 rancher ,加载旧数据基于新 rancher 的界面获取原集群的cattle-agent注册信息将新 rancher 的 cattle-agent 在旧集群更新,然后其重新注册到新的 rancher 地址rancher停止容器docker stop 创建容器卷docker run --volumes-from -

    28920

    Linux数据

    本文包含: 工具 tar、命令 cpio、压缩工具 gzip、bzip2与整盘工具 dd1. 工具 tar参数 c:建立一个新归档文件f:指定需要归档的文件t:列出指定文件的内容v:以详细模式显示命令执行的过程x:从归档文件中还原文件z:通过gzip处理归档文件j:通过bzip2处理归档文件 p:保留数据的原本属性与权限例如: 归档test目录,归档名为tets.tar,将命令放到后台执行# tar -cf test.tar test &使用gzip压缩归档文件# tar -zcvf test.tar.gz 命令 cpio参数 i:使用copy-in模式,还原归档文件或列出归档文件中的文件列表o:使用copy-out模式,建立归档文件p:使用copy-pass模式,将文件直接复制到目的目录c:使用ASCII

    62420

    linux 服务器自动脚本的法(mysql、附件

    BACKUP_FOLDERfiles-new.zip filesecho zip $SOURCE_FOLDER files and backup to $BACKUP_FOLDER end# 调用系统式 send notice msg to 钉钉通知curl -X POST -d templateCode=003&content=文件成功,文件保存到此目录: $BACKUP_FOLDER http crontab文件格式: * * * * * commandminute hour day month week command分 时 天 月 星期 命令例如:每周每月每天1点0分执行脚本,日志放在

    16631

    远程rsync实时脚本

    环境:首先,想要使用远程,必须要让远程主机信任你,让你能够使用ssh无验证登陆。                                 node1(25)主机无验证登陆node4(28主机)Last login: Sun Jul 20 06:00:26 2014 from 192.168.0.1# logout2.本地主机编写脚本 本地需要的目录host=192.168.0.28                            到远程主机id=root                                                 :# lsback.sh  mk.sh  rsync.sh  weekly成功咯!!!! ,现在就会每5分钟进行一次远程了!

    43590

    gerrit代码简单分享

    所以,对gerrit代码的至关重要! 的策略是:1)先首次将gerrit项目代码git clone下来,然后后续前进行git pull2)编写脚本,crontab定时执行3)除了本机外,还可以到远程下面是操作记录:比如, gerrit上的下列项目代码? 查看各个项目的gerrit代码下载地址(ssh式)? $ crontab -l 10 * * * * binbash -x homewangshibogerrit-bak.sh > devnull 2>&1 2)第一步只是在本地,可以将本地的git

    858100

    相关产品

    • 备份一体机

      备份一体机

      备份一体机(TStor B2000)是将备份功能、容灾功能、存储功能和服务器硬件融合于一体的企业级数据保护产品,定位于解决混合云场景下的数据存储。TStor B2000支持本地与云端数据的协同,为用户数据提供云下快速备份恢复、云上容灾、云上归档、云上云下灾难恢复等功能,可以轻松解决混合云场景下的各种数据存储和管理问题。

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券