先看下redis的工作流程
可知只有当第五步完成以后数据才会写到磁盘上。
持久化:将数据放到断电后数据不会丢失的设备中,也就是我们通常理解的硬盘上。
持久化操作分为两种形式
RDB优点:
RDB缺点:
RDB保存数据过程:
AOF优点:
AOF缺点:
AOF持久化过程:
开启RDB,关闭AOF:
1 2 3 4 5 6 7 8 9 10 11 | save 900 1 save 300 10 save 60 10000 rdbcompression no #默认Redis会采用LZF对数据进行压缩。如果你想节省点CPU的性能,你可以把压缩功能禁用掉,但是数据集就会比没压缩的时候要大 rdbchecksum no #数据校验,从版本5的RDB的开始,一个CRC64的校验码会放在文件的末尾。这样更能保证文件的完整性,但是在保存或者加载文件时会损失一定的性能(大概10%)。如果想追求更高的性能,可以把它禁用掉,这样文件在写入校验码时会用0替代,加载的时候看到0就会直接跳过校验 dbfilename redis.rdb dir /home/backup/redis stop-writes-on-bgsave-error yes #错误处理,如果redis在后台生成快照时失败,就会停止接收数据,目的是告诉你没有持久化成功 appendonly no |
---|
开启AOF,关闭RDB:
1 2 3 4 5 6 7 8 | appendonly yes appendfilename redis.aof # appendfsync always appendfsync everysec # appendfsync no no-appendfsync-on-rewrite no auto-aof-rewrite-min-size 64mb |
---|
开启RDB和AOF:
1 2 3 4 5 6 7 8 9 10 11 12 | save 900 1 save 300 10 save 60 10000 appendonly yes appendfilename zhoujy.aof # appendfsync always appendfsync everysec # appendfsync no no-appendfsync-on-rewrite no auto-aof-rewrite-min-size 64mb |
---|
手动生成快照:
日志重写:
随着写操作的不断增加,AOF文件会越来越大。例如你递增一个计数器100次,那么最终结果就是数据集里的计数器的值为最终的递增结果,但是AOF文件里却会把这100次操作完整的记录下来。而事实上要恢复这个记录,只需要1个命令就行了,也就是说AOF文件里那100条命令其实可以精简为1条。所以Redis支持这样一个功能:在不中断服务的情况下在后台重建AOF文件。
工作原理如下:
1 2 3 4 5 6 7 8 9 10 | #在日志重写时,不进行命令追加操作,而只是将其放在缓冲区里,避免与命令的追加造成DISK IO上的冲突。 #设置为yes表示rewrite期间对新写操作不fsync,暂时存在内存中,等rewrite完成后再写入,默认为no,建议yes no-appendfsync-on-rewrite yes # Redis会记住自从上一次重写后AOF文件的大小(如果自Redis启动后还没重写过,则记住启动时使用的AOF文件的大小)。 # 如果当前的文件大小比起记住的那个大小超过指定的百分比,则会触发重写。 # 同时需要设置一个文件大小最小值,只有大于这个值文件才会重写,以防文件很小,但是已经达到百分比的情况。 auto-aof-rewrite-percentage 100 #设置为0表示禁用日志重写功能 auto-aof-rewrite-min-size 64mb |
---|
数据损坏修复:
如果因为某些原因导致AOF文件损坏,导致redis加载不了,可以使用如下方式修复:
1 2 | 先进到redis的/bin目录,然后执行: redis-check-aof --fix |
---|
RDB切换到AOF:
如果要更换持久化的方式,由RDB更换成AOF,我们需要做如下操作:
redis-cli config set appendonly yes redis-cli config set save "”
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 | * 验证数据是否一致 这种方式的切换在redis重启后就失效了,需要修改配置文件 还有另外一种情况,就是现在公司的线上环境,现在使用的是RDB的方式,但是由于,系统每隔五分钟左右的时间,负载和cpu和内存都会抖动一下,持续时间大概几秒钟,所以这里我们想更换一下持久化方式,有两种方法实现: 1. 开启AOF之前,先执行bgrewriteaof操作,然后重启 ``` redis 127.0.0.1:6379> keys * #查看是否有数据 (empty list or set) redis 127.0.0.1:6379> set name ttd OK redis 127.0.0.1:6379> keys * 1) "name" redis 127.0.0.1:6379> bgsave #保存数据 Background saving started redis 127.0.0.1:6379> keys * 1) "name" #只有一个RDB文件,没有AOF文件 redis 127.0.0.1:6379> bgrewriteaof #执行合并重写功能,生成AOF文件 Background append only file rewriting started #这时候去打开redis.conf 文件中的aof参数(appendonly yes),重启生效。 #日志里面出现:* DB loaded from append only file: 0.000 seconds redis 127.0.0.1:6379> keys * #数据还在 1) "name" |
---|
#动态修改参数,把aof功能开启:appendonly yes redis 127.0.0.1:6379> CONFIG SET appendonly yes #动态修改参数 OK redis 127.0.0.1:6379> CONFIG GET append*
#aof文件已经生成,并且有数据(同步rdb)
#日志里面的信息:* Background append only file rewriting started by pid 3165 #因为参数是动态修改的,在重启之后会失效,所以在维护的时候修改redis.conf文件的参数即可
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 | </li> </ol> #### AOF持久化造成文件体积过大 我们可以通过执行bgrewriteaof命令来对redis的aof进行重写,即重建一个新的AOF文件来替代现有的AOF文件,新旧文件所保存的数据库状态相同,但新AOF文件不会包含任何冗余命令,所以体积会比旧的小很多。 AOF重写实现原理: 首先从数据库读取键现在的值,然后用一条命令去记录键值对,代替之前记录这个键值对的多条命令,但会产生一个问题,重写会进行大量的写入操作,阻塞服务器线程,无法处理新的命令请求,所以这时需要将AOF重写放到子进程里执行,这样父进程便可以正常工作,但这时又产生了一个新的问题,子进程在进行AOF重写期间,服务器进程还需要继续处理命令请求,而新的命令可能会对现有的数据库状态进行修改,从而产生数据库状态不一致,所以redis设置了一个AOF重写缓冲区,这个缓冲区在服务器创建子进程之后开始使用,当服务器执行完一个写命令之后,它会将这个写命令发送给AOF重写缓冲区,当子进程完成AOF重写工作之后,会向父进程发送一个信号,父进程在接到该信号之后,会调用信号处理处理函数,执行一下工作: 1. 将AOF重写缓冲区中的所有内容写入到新AOF文件中,这时新的AOF文件与当前的数据库状态一致 2. 对新的AOF文件进行改名,覆盖现有的AOF文件,完成新旧两个AOF文件的替换 在整个重写过程中,只有信号处理函数执行时会对服务器造成阻塞。 原理图: ![][1] 看下示例: 执行重写命令 ``` 9998> BGREWRITEAOF Background append only file rewriting started |
---|
查看AOF文件变化
```
[root@xs_82_208 /data/redis]# ll -rw-r–r– 1 redis redis 1600484096 Feb 28 09:31 appendonly.aof -rw-r–r– 1 redis redis 537021850 Feb 28 09:31 temp-rewriteaof-3563.aof
1 2 3 4 5 6 | 重写过程中会把新的操作写入缓冲区,重写完成后会把新的AOF文件覆盖旧的文件 ``` [root@xs_82_208 /data/redis]# ll -rw-r--r-- 1 redis redis 845349884 Feb 28 09:36 appendonly.aof |
---|
重写过程中,cpu和内存会有短暂的飙升,过后便会恢复正常