Redis教程

Redis——Redis持久化

本文主要是介绍Redis——Redis持久化,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

Redis持久化

  • RDB
    • 什么是RDS
    • 认识RDS
    • RDB触发机制
  • AOF
    • 什么是AOF
    • AOF的一些配置
    • AOF开启后的验证
    • AOF文件破坏后的修复
  • Redis持久化的扩展

RDB

redis database

  • Redis是内存数据库,如果不将内存中的数据状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据状态也会消失,所以Redis提供了持久化功能
  • 在主从复制中,rdb是备用的,在从机上面!aof一般不使用
    在这里插入图片描述

什么是RDS

  • 在指定的时间间隔内将内存中的数据快照写入磁盘,也就是Snapshot快照,它恢复时是将快照文件直接读到内存里。
  • Redis会单独创建(fork)一个子进程来进行持续优化,会先将数据写入到一个临时文件中,待持久化过程结束了,再用这个临时文件替换上次持久化好的文件,整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能,如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB模式要比AOF方式更加的高效,RDB的缺点是最后一次持久化后的数据可能丢失,默认的就是RDB,一般情况下不需要修改配置!
  • 缺点是最后一次持久化如果宕机没有办法保存数据
  • rdb保存的文件是 dump.rdb
  • 有时候在生产环境我们会将这个文件进行备份!
# The filename where to dump the DB
dbfilename dump.rdb

认识RDS

  • 我们测试一下:只要60s 内修改5次key,就触发rdb操作
  • RDS的启动命令:Save
save 60 5
[root@pakho bin]# rm -rf dump.rdb
127.0.0.1:6379> save
OK
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3 v3
OK
127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK

#会再次生成一个rdb文件
[root@pakho bin]# ls
dump.rdb  redis-benchmark  redis-check-aof  redis-check-rdb  redis-cli  redis_config  redis-sentinel  redis-server
  • 此时,断开数据库,检查数据是否存在
127.0.0.1:6379> shutdown
not connected> exit
[root@pakho bin]# redis-server redis_config/redis.conf 
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> get k1
"v1"                                                   #重新启动后数据依旧存在

RDB触发机制

  • save命令的规则满足的情况下,会触发rdb规则
  • 执行flushall命令,也会触发rdb规则
  • 退出redis,也会产生rdb文件
    备份会自动生成dunp.rdb文件
[root@pakho bin]# rm -rf dump.rdb
127.0.0.1:6379> flushall
OK
[root@pakho bin]# ls                                   #立即生成一个rdb文件      
dump.rdb  redis-benchmark  redis-check-aof  redis-check-rdb  redis-cli  redis_config  redis-sentinel  redis-server
  • 如何恢复rdb文件?
    • 只需要将rdb文件放在redis启动目录即可,redis启动的时候会自动检查dump.rdb文件恢复其中的数据
#查看需要存在的位置
127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/local/bin"   #如果在这个目录下存在dump.rdb文件,启动会自动恢复其中的数据
  • 几乎自己的默认配置就够用了,但是我们还是需要去学习

优点:

  • 适合大规模的数据恢复!
  • 对数据完整性要求不高

缺点

  • 需要一定的时间间隔进行进程操作!如果redis意外宕机,最后一次数据修改就没有了
  • fork进程的时候,会占用一定的内存空间!!

AOF

Append Only file

什么是AOF

  • 将所有命令记录下来,好比history,恢复的时候就把这个文件全部执行以一遍
    在这里插入图片描述
  • 以日志的形式来记录每个写的操作,将redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初就会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
  • AOF保存的是 appendonly.aof文件

AOF的一些配置

配置文件部分
############################## APPEND ONLY MODE ###############################
appendonly yes         #默认不开启手动配置
appendfilename "appendonly.aof"
# appendfsync always
appendfsync everysec   #每秒钟修改一次,只会丢失1秒钟的数据
# appendfsync no

no-appendfsync-on-rewrite no #是否运用aof重写默认是no,保证数据的安全性

auto-aof-rewrite-percentage 100  #重写规则
auto-aof-rewrite-min-size 64mb   #超过64mb 会开启一个新的文件进行重写
  • 重写规则说明
    • 如果这个aof文件大于64m,太大了,就会fork一个新的进程来将文件进行重写
    • aof默认文件无限追加,文件会越来越大!
  • 只需要将appendonly 改为yes就开启了aof
[root@pakho bin]# redis-server redis_config/redis.conf 
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> ping
PONG
[root@pakho bin]# ls            #重启后会生成aof文件
appendonly.aof

AOF开启后的验证

  • 生成一些内容
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3 v3
OK
127.0.0.1:6379> set k4 v4
OK
127.0.0.1:6379> set k5 v5
OK
[root@pakho bin]# vim appendonly.aof #查看内容,以日志级别记录我们的所有写操作
  • 模拟aof文件出错
127.0.0.1:6379> shutdown 
not connected> exit
[root@pakho bin]# rm -rf dump.rdb    #删除rdb文件保证环境正常
[root@pakho bin]# vim appendonly.aof
qwertttyyuu                          #随机添加一串字符

[root@pakho bin]# redis-server redis_config/redis.conf        #此时重新登录提示无法连接,因为刷新失败
[root@pakho bin]# redis-cli -p 6379
Could not connect to Redis at 127.0.0.1:6379: Connection refused

AOF文件破坏后的修复

  • 如果aof文件有错误,redis无法启动,我们需要修复这个配置文件
  • redis给我们提供了一个工具redis-check-aof --fix
[root@pakho bin]# redis-check-aof --fix appendonly.aof 
0x              ba: Expected prefix '*', got: 'q'
AOF analyzed: size=199, ok_up_to=186, ok_up_to_line=44, diff=13
This will shrink the AOF from 199 bytes, with 13 bytes, to 186 bytes
Continue? [y/N]: y
Successfully truncated AOF
  • 此时再次查看aof文件发现我们添加的一串字符已经没了
  • 如果文件正常,重启就可以直接恢复了
#再次启动,一切正常
[root@pakho bin]# redis-server redis_config/redis.conf 
[root@pakho bin]# redis-cli -p 6379
127.0.0.1:6379> ping
PONG
127.0.0.1:6379> get k1
"v1"

在这里插入图片描述

优点

  • 每次修改都同步
  • 每秒同步一次,可能会丢失一秒的数据
  • 从不同步是效率最高的

缺点

  • 相对于数据文件来说,aof远远大于rdb,修复的速度比rdb慢
  • aof运行效率比rdb慢,所有 redis默认的配置就是rdb持久化

Redis持久化的扩展

  • RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
  • AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
  • 只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
  • 同时开启两种持久化方式
    • 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
    • RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
  • 性能建议
    • 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 9001这条规则。
    • 如果Enable AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
    • 如果不Enable AOF,仅靠Master-Slave Repllcation实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时宕掉(断电),会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave 中的RDB文件,载入较新的那个,微博就是这种架构。
这篇关于Redis——Redis持久化的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!