概念: 在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方 式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。
fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。
rdb 保存的是dump.rdb
文件
①配置文件中默认的快照配置,冷拷贝后重新使用,可以cp dump.rdb dump_new.rdb。然后要还原数据的时候就将dump_new.rdb
还原成dump.rdb
,然后重新启动的时候就会自动加载。
②命令save或者是bgsave,这个会强制的备份。
Save
:save时只管保存,其它不管,全部阻塞。BGSAVE
:Redis会在后台异步进行快照操作, 快照同时还可以响应客户端请求。可以通过lastsave 命令获取最后一次成功执行快照的时间。dump.rdb
文件,但里面是空的,无意义 (当时还挖了一个坑)。即: 调用
save
也就是立刻、马上备份。flushAll
也可以马上形成备份,但是没有意义。
redis.conf
相关文件关于 RDB
的配置:
save
配置:RDB是整个内存的压缩过的Snapshot,RDB的数据结构,可以配置复合的快照触发条件。默认是1分钟内改了1万次,
或5分钟内改了10次,
或15分钟内改了1次。stop-writes-on-bgsave-error
: 如果配置成no,表示你不在乎数据不一致或者有其他的手段发现和控制。rdbcompression
:rdbcompression:对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能。dbfilename
: 默认是dump.rdb
。dir
: 生成dump.rdb
的默认目录。将备份文件 (dump.rdb
) 移动到 redis 安装目录并启动服务即可。
CONFIG GET dir获取目录
优势:
劣势:
动态所有停止RDB保存规则的方法:redis-cli config set save ""
。
实战: 更换默认save,并使用dump.rdb恢复配置文件(后面未做了)
以日志的形式来记录每个写操作。
将Redis执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。
Aof保存的是appendonly.aof
文件。
appendonly
,默认是no
,我们要改成yes
才会有作用;appendfilename
,默认是appendonly.aof
;appendfsync
:no-appendfsync-on-rewrite
:重写时是否可以运用Appendfsync,用默认no即可,保证数据安全性;auto-aof-rewrite-min-size
:设置重写的基准值;auto-aof-rewrite-percentage
:设置重写的基准值;正常恢复:
appendonly no
,改为yes。config get dir
);异常恢复(就是下面的搞破坏)
redis-check-aof --fix
进行修复;第一步: 启动redis-server
之前和之后的,启动之后就会生成appendonly.aof
文件:
第二步: 进行相关操作并且查看更新之后的appendonly.aof
文件:
但是上述文件不能还原我们之前的数据,因为最后一样有一个flushAll
,还原的时候也会执行这个,所以不能用这个还原,但是我们可以手动的编辑appendonly.aof
文件,从而还原我们的数据库。
但是如果我们的appendonly.aof
文件被破坏了,例如我随便加了一些乱码进去,这就会导致redis
启动不了。
如下,虽然appendonly.aof
和dump.rdb
可以共存,但是会优先加载appendonly.aof
,所以导致不能启动:
此时我们可以使用redis-check-aof --fix appendonly.aof
来修复乱码文件:
概念: AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof
。
原理:
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename), 遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件, 而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似。
触发机制:
Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发。
优势:
appendfsync always
同步持久化 每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好。appendfsync everysec
异步操作,每秒记录 如果一秒内宕机,有数据丢失。appendfsync no
从不同步。劣势:
性能建议: 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留
save 900 1
这条规则。 如果Enalbe AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。默认超过原大小100%大小时重写可以改到适当的数值。 如果不Enable AOF ,仅靠Master-Slave Replication 实现高可用性也可以。能省掉一大笔IO也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个。新浪微博就选用了这种架构。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。