展开

关键词

Zabbix

(量大很慢且会告警) mysqldump -uzabbix -pzabbix --opt zabbix | bzip2 > zabbix.sql.bz2 配置表 mysqldump - zabbix.services_times --ignore-table=zabbix.trends --ignore-table=zabbix.trends_uint > zabbix_config.sql 导入新

29310

OrientDB

像RDBMS一样,OrientDB也支持和恢复操作。 在执行操作时,它将使用ZIP算法将当前的所有文件转换为压缩zip格式。 通过启用自动服务器插件,可以自动使用此功能()。 或导出是相同的,但是,基于我们必须知道什么时候使用和什么时候使用导出的过程。 在进行时,它将创建的一致性副本,所有后续写入操作都被锁定并等待完成过程。 在此操作中,它将创建一个只读文件。 如果在进行时需要并发读取和写入操作,则必须选择导出,而不是。 导出不锁定,在导出过程中允许并发写入。 <dburl> - 位于本地或远程位置的URL。 <user> - 指定运行的用户名。 <password> - 提供特定用户的密码。 服用特定之前,你必须先连接到。您可以使用下面的命令连接到演示命名的

12920
  • 广告
    关闭

    腾讯云精选爆品盛惠抢购

    腾讯云精选爆款云原生数据库TDSQL-C首年19.9元,云数据库MYSQL首年89元,还有更多热门云数据库满足您的上云需求

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    OrientDB

    像RDBMS一样,OrientDB也支持和恢复操作。 在执行操作时,它将使用ZIP算法将当前的所有文件转换为压缩zip格式。 通过启用自动服务器插件,可以自动使用此功能()。 或导出是相同的,但是,基于我们必须知道什么时候使用和什么时候使用导出的过程。 在进行时,它将创建的一致性副本,所有后续写入操作都被锁定并等待完成过程。 在此操作中,它将创建一个只读文件。 如果在进行时需要并发读取和写入操作,则必须选择导出,而不是。 导出不锁定,在导出过程中允许并发写入。 <dburl> - 位于本地或远程位置的URL。 <user> - 指定运行的用户名。 <password> - 提供特定用户的密码。 服用特定之前,你必须先连接到。您可以使用下面的命令连接到演示命名的

    8840

    mysql

    /rm_olddata.log #删除记录日志 time=`date +%Y%m%d` time1=`date +%m%d%H%M` data_path="/mydata/databake/" #目录

    11710

    MySQL入门——

    MySQL入门—— 一提到,大家神经都会很紧张,的类型有很多种,但是总归一点,很重要,非常重要,因此,日常的工作就成了运维工作的重点中的重点的重点.......... 40111 SET SQL_NOTES=@OLD_SQL_NOTES */; -B参的作用一目了然,就是当我们的丢失时,可以直接用此文件进行恢复,无需再重新建、建表,然后再进行恢复的操作 2、压缩 有时候,比较大,可能会用到压缩后进行,节省时间与磁盘空间的使用 [root@centos6 ~]# mysqldump -uroot -p -B test|gzip ,就会产生一个问题,如果只是其中一个有问题了,就不好进行单恢复了,故此方法不常用,也不符合实际需求,因此多时就需要进行多次单的操作 [root@centos6 ~]# mysqldump 分是为了恢复时方便操作,但是同样面临问题,如果是某个中的某一个表有损坏,但又不有全进行恢复,所以实际生产中常用的是分、分表进行,这样了,恢复时也好操作 [root@centos6

    16920

    mysql(10):

    (1)某个下的固定某些表 目标:我的chuan下的pet表,在路径下建立chuan.sql这个文件。 注意:先退出mysql再执行该命令,否则会报错outfile. mysqldump -u root -p chuan pet >D:/test/chuan.sql 同样道理:chuan下pet shop zhang这三个表 mysqldump -u root -p chuan shop zhang >D:/test/chuan.sql  (2)对单个或多个进行完全 先查一下有哪些 : show databases; 单个:(我又建立了一个文件test.sql) mysqldump -u root -p mysql>D:\test\test.sql  再来试试多个:(我另外建立了一个 duo.sql文件) mysqldump -u root -p --databases news sys>D:\test\duo.sql  (3)对所有进行完全(建立all.sql文件) mysqldump

    6230

    Linux自动mysql|mysql

    文章时间:2019年1月31日 08:49:46 作者:余伟同学 说明:利用crotab定时器,实现定时自动mysql 更新人 更新时间 更新内容 余伟同学 2019年10月10日 %S).sql.gz #复杂版本 ########文件名称为当天时间############# time=`date '+%y-%m-%d %H:%M:%S'` echo $time echo '开始 -p$passwd $dbname > $mysql_back_path/$time.sql.gz echo '完成' find /home/dbback/ -mtime +3 -name "*.sql.gz*" -exec rm -rf {} \; #删除3天以上的sql echo '检查删除过期成功' 说明 -u 后面跟的是用户名 -p 后面跟的是密码 datebaes 是的名字 /data/ 是生成的路径及文件名字 $(date +%Y%m%d_%H%M%S) 是按照时间进行输出 编写crontab计时器码 生成器地址:http://www.nicetool.net

    52021

    拿webshell

    然后发现有,这网站基本凉了: ? 通过前面的信息我们可以看到这是asp+iis的站点,但是的地点原始不能更改但是的可以更改,这比较简单,突破一下,抓包改一改就行。 然后现在我们先要上传一个图片的木马为做准,为啥呢? 简单说一下拿shell的原理,是为网站管理者提供的功能,网站管理者可以将指定位置的文件进行,但是为了安全,网站后台都是不允许我们自己指定位置的,比如我们现在这个,但是这个一看就是在前台加的限制 ,后台没有校验,所以我们可以向上传一个写入小马的图片文件,然后得到他的路径,在将这个路径进行是指定w为asp后缀就行。

    51630

    相关

    命令就来了~ 文件(默认+压缩),提醒一下,压缩速度更快==》对,我没有写错,压缩速度更快,体积更小【下面有证明的图】==》只是占的CPU更多而已(大概是5倍)。 =N'2017完整' backup database MyBlog to disk=N'G:\2.bak' with name=N'完整-压缩',description=N'2017完整-压缩 网上大多文章都没说,其实完成了最好检查一下 ? 检查是否有效 restore verifyonly from disk=N'G:\1.bak' ? 还原: restore database MyBlog from disk=N'G:\1.bak' ? 下面其实我是准研究下Bak的加密,网上的大多是把文件压缩,然后加密。想看下有没有直接就加密bak的,下面的是研究过程中的几个图(暂时没有结果,如果同志们有会的可以赐教一下~) ?

    55190

    pythonmysql

    完成。 #!

    25830

    自动

    1.首先写一个ssh文件 在你要的目录下创建一个文件夹,和一个文件。 2.编辑这个文件,写一个ssh语句 #! 到时间检查是否完成 成功!!!

    6510

    码分享:用javaMySQL

    原文地址 https://www.t-io.org/1157456456140857344 前言 t-io官网的都会定时,并且可以通过http直接下载到本地(这个当然需要特权,不是人人有这个操作权限 ,可以是ip,也可以是域名 * @param port 服务器端口 * @param dbName 名字 * @param username 用户名 * @param = null) { sb.append(line); } System.out.println("【" + dbName + "】失败\r\n" + sb.toString ()); } } } catch (Exception e) { log.error("【" + dbName + "】失败", e); return null; } return null; } } 非核心码 非核心码主要是获取信息这些,同时将生成的SQL做成zip,然后用个定时任务去执行这个程序,这些码就不贴出来啦 看看效果 [1.png

    45210

    Navicat 及还原

    25750

    压缩提高效率

    背景     在过程中有很多参,前几日发现公司的job运行的很慢,就去研究了一下,发现在程序中都没有启用压缩,加上压缩以后有发现效率提高了不少,本篇就几个压缩相关的参来看一下的过程中如何提高的效率 码实现     为了更好地了解,我们首先要知道码以及参的含义。 普通码: BACKUP DATABASE ‘名称’ TO DISK = '地址+bak文件名称' ; 加快进度的几个关键参: 1.BUFFERCOUNT--指定用于操作的 I/O 2> 对已启用压缩的进行压缩,CPU消耗会变得更高 压缩主要因素包括: 1.类型。字符的压缩率要高于其他类型的。 2.重复的比例越高压缩越好,类似于压缩(页压缩)。 相反,对于包含随机或者每页只有一个很大的行的,压缩的大小几乎与未压缩的相同。 总结:     不难发现,以上主要测试三个,在合理外围内越大越能提高效率。

    45390

    mongodb迁移

    mongodb迁移 1.先进入到mongodb目录的bin目录下,Linux windos是一样 ? 2.集合和恢复 使用mongo自带命令来迁移,思路是先导出集合再导入到中 导出命令:mongoexport 语法:mongoexport -d dbname -c collectionname data\data.json --type json 导入:mongoimport -d config -c userInfo --file D:\data\data.json --type json 3.和恢复 使用 mongo 还原命令 语法:mongodump -h dbhost -d dbname -o dbdirectory 恢复语法:mongorestore -h dbhost -d dbname --dir dbdirectory -h:服务器地址 -d:名 -o:文件路径 --file:恢复文件的路径 实战命令 语法:mongodump -h 127.0.0.1

    53120

    用Java和还原MySQL

    IOException{ Runtime runtime = Runtime.getRuntime(); //-u后面是用户名,-p是密码-p后面最好不要有空格,-family是的名字 IOException{ Runtime runtime = Runtime.getRuntime(); //-u后面是用户名,-p是密码-p后面最好不要有空格,-family是的名字 ,--default-character-set=utf8,这句话一定的加 //我就是因为这句话没加导致程序运行成功,但是里面的内容还是以前的内容,最好写上完成的sql放到cmd中一运行才知道报错了

    13000

    如何PostgreSQL

    如果您在生产环境中使用PostgreSQL,请务必采取预防措施以确保用户的不会丢失。通过频繁或使用cron任务自动执行,您将能够在丢失或损坏的情况下快速还原系统。 一次性SQL转储 单 PostgreSQL提供了pg_dump实用程序来简化单个的过程。 必须以对要具有读取权限的用户身运行此命令。 由于pg_dump一次只创建一个,因此它不会存储有关角色或其他群集范围配置的信息。 cron作业,以便定期自动。 您的将在每个星期日的半夜12点进行。 下一步 PostgreSQL还提供了更高级的方法。 官方文档描述了如何设置连续归档和时间点恢复。

    7.2K31

    MySQL实操

    =admin -e MYSQL_DATABASE=user -d mysql mysqldump逻辑及恢复 在开展之前,需要先准如下的测试 create table if not 全量 全量基本模式: 进入到mysql容器中 创建目录 通过mysqldump命令,执行逻辑操作,将结果输出到 sql文件中。 主要命令如下: # 级联创建目录 mkdir -p /data/backups/dmp # 实现所有 mysqldump --opt --single-transaction --master-data =2 表示在过程中记录主的binlog和pos点,并且在dump文件中注释改行 --all-databases 导出所有,包括mysql 全量恢复 通过在上述中,执行drop table mysql -h localhost -u root -p < /data/backups/dmp/dmp1.sql 其他 1、导出指定的指定表: --databases 指定 -

    47440

    Navicat自动

    重要的定时是非常重要的,使用Navicat可以非常方便快捷地自动。 Navicat自动 打开Navicat,点击计划 ? 新建批处理作业 ? 在左侧选择要,右侧双击可用任务,在下方会看到任务已选择 ? 保存任务 ? 设置计划任务 ? 新建计划 ? 设置计划任务,这里设置为每日19:50,可以在高级里设置起止日期 ? ? 确定,输入本机的密码 ? 与还原 19:51的时候,可以看到已经进行了,生成了一个文件 ? 还原:在中点击还原,选择上面生成的文件 ? 开始还原 ? 还原成功 ? 修改位置 右键连接,打开连接属性 ? 在我们设置的位置下,就可以找到了 ? 参考: 【1】:使用Navicat进行自动

    59530

    PHP原理

    主要使用两个函进行php,缺点:不适合大型 这里只是讲解下基本原理 基本原理过程:连接服务器,查询表,导出表结构 查询,存入文件 恢复:连接,导入结构 ,插入 获取表名,使用函mysql_list_tables mysql_list_tables() 接受一个名并返回和 mysql_query() 函很相似的一个结果指针。 用 mysql_tablename() 函来遍历此结果指针 或者任何使用结果表的函,例如 mysql_fetch_array() 获取字段相关信息 mysql_fetch_field — 从结果集中取得列信息并作为对象返回 如果该列是 non-unique key numeric – 1,如果该列是 numeric blob – 1,如果该列是 type – 该列的类型 unsigned – 1,如果该列是无符号

    59960

    相关产品

    • 数据库备份服务

      数据库备份服务

      数据库备份服务(Database Backup Service,简称 DBS)是为用户提供连续数据保护、低成本的备份服务。数据库备份拥有一套完整的数据备份和数据恢复解决方案,具备实时增量备份以及快速的数据恢复能力,它可以为多种部署形态的数据库提供强有力的保护。

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券