项目 Github 地址:github/booklet
Redis 提供了两种不同的持久化方法来将数据存储到硬盘里面。一种方法叫快照(snapshotting,RDB),它可以将存在于某一时刻的所有数据都写入硬盘里面。
另一种方法叫只追加文件(append-only file,AOF),它会在执行写命令时,将被执行的写命令复制到硬盘里面。
这篇文章梳理了 Redis 两种持久化方法的知识点,并通过 Docker + Docker-Compose 进行环境的模拟,来进行数据的备份与恢复等操作。
至于测试数据,我通过一个 python 脚本批量录入三百万条 key-value 键值对(会消耗 719.42M 内存,来源于 redis-cli info 信息),没有 python 环境的同学,可以使用我在项目里准备的另一个 shell 脚本
python 脚本代码:
# -*- coding: UTF-8 -*-
# file write.py
# author liumapp
# github https://github.com/liumapp
# email liumapp.com@gmail.com
# homepage http://www.liumapp.com
# date 2019/9/9
#
import redis
r = redis.Redis(host="127.0.0.1", port=6379, db=0, password="admin123")
print("开始插入三百万条数据,每10万条数据提交一次批处理")
with r.pipeline(transaction=True) as p:
value = 0
while value < 3000000:
print("开始插入" + str(value) + "条数据")
p.sadd("key" + str(value), "value" + str(value))
value += 1
if (value % 100000) == 0:
p.execute()
RDB
RDB 持久化是通过创建快照来获得数据副本,即简单粗暴的直接保存键值对数据内容
要启用 RDB(并关闭 AOF),我们需要修改 Redis 的配置文件(./redis_config/redis.conf):
requirepass admin123
save 60 1000
stop-writes-on-bgsave-error no
rdbcompression no
dbfilename dump.rdb
appendonly no
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
dir /data/
上述配置会通过 docker-compose 的配置,映射到 Redis 容器中并启用,具体在下面的实操中介绍
RDB 配置说明
上述配置中与 RDB 相关的配置如下
-
save: 多久执行一次自动快照操作
比如设置为
save 60 1000
,那么就表示在 60 秒之内,如果有 1000 次写入的话,Redis 就会自动触发 BGSAVE 命令一般来说,我们都会希望 Redis 可以有一个固定的周期来创建快照,那么可以这样设置
save 900 1
,意思就是让 Redis 服务器每隔 900 秒,并且至少执行了一次写入操作后,就触发 BGSAVE 指令 -
stop-writes-on-bgsave-error: 在创建快照失败后是否仍然继续执行写命令
-
rdbcompression: 是否对快照文件进行压缩
-
yes: 开启,这种情况下,Redis 会采用 LZF 算法对 rdb 文件进行压缩
-
no: 关闭
-
-
dbfilename: 快照文件名
-
dir: 快照文件存放目录
RDB 触发条件
RDB 的触发条件会比 AOF 麻烦,大致可以分为以下几种:
-
通过 redis-cli 等客户端直接发送指令:
BGSAVE
BGSAVE 指令,会让 Redis 调用 fork 创建一个子进程在后台运行,子进程将会负责创建快照到磁盘中
在演示案例中,启动 redis 的 docker 容器后,在 redis-cli 中输入
BGSAVE
后,能够在./redis_data 目录下生成一个 temp-17.rdb 文件(或者其他以 rdb 结尾的) -
通过 redis-cli 等客户端直接发送指令:
SAVE
SAVE 指令**(注意跟配置中的 save 没有半毛钱关系)**,会让 Redis 主进程直接开始创建快照,但在创建快照的过程中,Redis 不会响应其他命令请求
在演示案例中,启动 redis 的 docker 容器后,在 redis-cli 中输入
SAVE
后,能够在./redis_data 目录下生成一个 temp-17.rdb 文件(或者其他以 rdb 结尾的) -
通过配置项
save
进行触发具体请参照上文的参数说明
-
通过 SHUTDOWN 命令关闭 Redis 服务器时,Redis 会自动触发一个 SAVE 指令
-
通过标准 TERM 信号 kill 掉 Redis 服务时,Redis 也会自动触发一个 SAVE 指令
-
通过 Redis 主从服务器的复制请求
主服务器收到从服务器的复制请求时,会触发一次 BGSAVE 指令(当且仅当主服务器没有子进程在执行 BGSAVE)
RDB-Docker 实操
-
通过 docker-compose 启动 Redis 容器
docker-compose.yml 配置如下
version: "2" services: redis: image: 'redis:3.2.11' restart: always hostname: redis container_name: redis ports: - '6379:6379' command: redis-server /usr/local/etc/redis/redis.conf volumes: - ./redis_config/redis.conf:/usr/local/etc/redis/redis.conf - ./redis_data/:/data/
我将 Docker 容器中的 redis 服务所产生的备份文件,映射在宿主机的./redis_data 目录下
-
修改 redis 配置文件,使 AOF 生效,并关闭 RDB
这里将上面的 redis.conf 内容复制替换到./redis_config/redis.conf 文件中即可
-
启动 redis 服务,并观察 redis_data 目录下是否有 dump.rdb 文件生成,有生成,则证明备份成功
-
数据恢复的话,我们不需要做其他操作,只要确保该 dump.rdb 存在,redis 便会自动去读取其中的数据
AOF
AOF 持久化会将被执行的写命令写到 AOF 文件的末尾,以此来记录数据发生的变化。因此,Redis 只要从头到尾重新执行一次 AOF 文件包含的所有写命令,就可以恢复 AOF 文件所记录的数据集。
要启用 AOF(并关闭 RDB),我们需要修改 Redis 的配置文件(./redis_config/redis.conf)
requirepass admin123
#save 60 1000
stop-writes-on-bgsave-error no
rdbcompression no
dbfilename dump.rdb
appendonly yes
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
dir /data/
上述配置会通过 docker-compose 的配置,映射到 Redis 容器中并启用,具体在下面的实操中介绍
AOF 配置说明
上述配置中与 AOF 相关的配置如下
-
appendonly: 是否启用 AOF
-
yes: 启用 AOF
-
no: 关闭 AOF
-
-
appendfsync: 启用 AOF 后的数据同步频率
-
alaways: 每个 Redis 写命令都要同步写入硬盘。这样做会严重降低 Redis 的速度 (不建议)
-
everysec: 每秒执行一次同步,显式地将多个写命令同步到硬盘 (推荐,对性能没有太大影响)
-
no: 让操作系统来决定应该何时进行同步。(不建议)
Redis 将不对 AOF 文件执行任何显式的同步操作,如果用户的硬盘处理写入操作的速度不够快的话,那么当缓冲区被等待写入硬盘的数据填满时,Redis 的写入操作将被阻塞,并导致 Redis 处理命令请求的速度变慢
-
-
no-appendfsync-on-rewrite:在对 AOF 进行压缩(也被称为重写机制)的时候能否执行同步操作
-
yes: 不允许
-
no: 允许
-
-
auto-aof-rewrite-percentage:多久执行一次 AOF 压缩,单位是百分比
-
auto-aof-rewrite-min-size:需要压缩的文件达到多少时开始执行
auto-aof-rewrite-percentage 跟 auto-aof-rewrite-min-size 需要配套使用,比如当我们设置 auto-aof-rewrite-percentage 为 100,设置 auto-aof-rewrite-min-size 为 64mb 时
redis 会在 AOF 产生的文件比 64M 大时,并且 AOF 文件的体积比上一次重写之后至少增大了一倍(100%)才执行 BGREWRITEAOF 重写命令
如果觉得 AOF 重写执行得过于频繁,我们可以把 auto-aof-rewrite-percentage 设置 100 以上,比如 200,就可以降低重写频率
这里可以参考 Redis 的官方手册,写的非常清楚:https://redislabs.com/ebook/part-2-core-concepts/chapter-4-keeping-data-safe-and-ensuring-performance/4-1-persistence-options/4-1-3-rewritingcompacting-append-only-files/
-
dir:备份文件存放目录
AOF 触发条件
直接根据 appendfsync 的设置进行触发
AOF 重写机制
在上面的配置中,已经通过 auto-aof-rewrite-percentage 和 auto-aof-rewrite-min-size 两个参数,简单介绍了 Redis 的 BGREWRITEAOF 重写命令
那么,为什么要用 AOF 重写机制呢?
因为 AOF 持久化是通过保存被执行的写命令来记录 Redis 数据库状态的,所以 AOF 文件随着时系统运行会越来越大
而过于庞大的 AOF 文件会产生以下不良影响
-
影响 Redis 服务性能;
-
占用服务器磁盘空间;
-
AOF 还原数据状态的时间增加;
所以 Redis 提供了一套 AOF 重写机制,通过创建一个新的 AOF 文件来替换掉旧的 AOF 文件,这两个文件所保存的数据状态是相同的,但新的 AOF 文件不会包含冗余命令,所以体积会较旧 AOF 文件小很多
但在实际的使用中,我们需要非常小心,不能让 Redis 的重写命令执行的过于频繁 (注意:auto-aof-rewrite-percentage 的单位是百分比,值越大,重写频率越低,也千万别出现 0 这种值) 因为 BGREWRITEAOF 的工作原理和 BGSAVE 创建快照的工作原理非常相似:Redis 会创建一个子进程,然后由子进程负责对 AOF 文件进行重写,因为 AOF 文件重写也需要用到子进程,所以快照持久化因为创建子进程而导致的性能问题和内存占用问题,在 AOF 持久化中也同样存在
更具体的 AOF 重写工作原理:
-
Fork 主进程,产生一个带有数据副本的子进程在后台执行
Redis 这样设计可以确保在重写过程中,不影响 Redis 主进程的服务正常运行,同时通过处理数据副本来保证数据的安全性**(注意,重写是针对数据副本来进行处理,而不是针对旧的 AOF 文件)**
-
子进程 Fork 完成后,Redis 将启用 AOF 重写缓冲区,此刻开始,新的写入命令会被写入 AOF 缓冲区和 AOF 重写缓冲区中
这里启用的 AOF 重写缓冲区可以确保:在执行 AOF 重写的过程中,任何新的写入命令产生,都不会导致新 AOF 文件的数据状态与 Redis 数据库状态不一致
-
子进程完成对 AOF 文件的重写后,通知父进程
-
父进程收到通知后,将 AOF 重写缓冲区的内容全部写入新的 AOF 文件中
-
父进程将新的 AOF 文件替换掉旧的 AOF 文件**(注意,这一步会造成 Redis 阻塞,但问题不大)**
BGREWRITEAOF 的工作流程图如下所示**(绘图源代码在项目的./articles/bgrewriteaof.puml 文件下)**:
AOF-Docker 实操
-
通过 docker-compose 启动 Redis 容器
docker-compose.yml 配置如下
version: "2" services: redis: image: 'redis:3.2.11' restart: always hostname: redis container_name: redis ports: - '6379:6379' command: redis-server /usr/local/etc/redis/redis.conf volumes: - ./redis_config/redis.conf:/usr/local/etc/redis/redis.conf - ./redis_data/:/data/
我将 Docker 容器中的 redis 服务所产生的备份文件,映射在宿主机的./redis_data 目录下
-
修改 redis 配置文件,使 AOF 生效,并关闭 RDB
这里将上面的 redis.conf 内容复制替换到./redis_config/redis.conf 文件中即可
-
启动 redis 服务,并观察 redis_data 目录下是否有 appendonly.aof 文件生成,有生成,则证明备份成功
另外我们可以发现,3 百万条数据(700M)的备份文件,其实际占用磁盘空间约为 170M,这便是 Redis 重写机制强大的地方
-
数据恢复的话,我们不需要做其他操作,只要确保该 appendonly.aof 存在,redis 便会自动去读取其中的数据
总结
RDB 跟 AOF 都可以确保 Redis 的数据持久化,但各有特点
RDB 因为有默认的指令 SAVE 跟 BGSAVE 支持,所以比较适合对数据库做全量备份,比如每天凌晨 3 点开始执行一次 BGSAVE
而 AOF 因为是保存的写命令,因而更适合实时备份,事实上现在企业应用也基本都是采用的 AOF
但光是使用了 RDB 或 AOF、甚至两个一起用,也还是不够的
对于一个需要支持可扩展的分布式平台而言,我们还需要提供一套复制备份机制,允许在一个周期内,自动将 AOF 或者 RDB 的文件备份到不同的服务器下
这种情况下,我们就需要使用 Redis 的复制并生成数据副本功能,具体内容我会在下一篇文章进行实操记录
欢迎来到这里!
我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。
注册 关于