从实战出发使用RedisShake进行Redis数据在线+离线模式迁移指南
RedisShake基本介绍
RedisShake是基于redis-port基础上进行改进的是一款开源的Redis迁移工具,支持Cluster集群的在线迁移与离线迁移(备份文件导入)。数据可平滑迁移,当部署在其他云厂商Redis服务上的Cluster集群数据,由于SYNC、PSYNC命令被云厂商禁用,无法在线迁移时,可以选择离线迁移。
RedisShake使用背景
RedisShake是一个用于在两个Redis实例之间同步数据的工具,满足非常灵活的同步与迁移需求。Redis实例之间的关系其中可能存在(standalone->standalone),(standalone->Cluster),(Cluster->Cluster)等。目前,比较常用的一个数据迁移工具是Redis-Shake ,这是阿里云Redis和MongoDB团队开发的一个用于 Redis 数据同步的工具。
RedisShake功能说明
RedisShake主要是支持Redis的RDB文件的解析、恢复、备份、同步四个功能:
恢复(restore):将 RDB 文件恢复到目标Redis数据库。
备份(dump):将源 Redis 的全量数据通过RDB文件备份起来。
解析(decode):读取 RDB 文件,并以 JSON 格式解析存储。
同步(sync):支持源redis和目的redis的数据同步,支持全量和增量数据的迁移,支持从云下到阿里云云上的同步,也支持云下到云下不同环境的同步,支持单节点、主从版、集群版之间的互相同步。
同步(rump):支持源 Redis 和目的 Redis 的数据同步,仅支持全量迁移。采用scan和restore命令进行迁移,支持不同云厂商不同redis版本的迁移。
注意:如果源端是集群版,可以启动一个RedisShake,从不同的db结点进行拉取,同时源端不能开启move slot功能;对于目的端,如果是集群版,写入可以是1个或者多个db结点。
Redis-Shake特性概览
高性能:全量同步阶段并发执行,增量同步阶段异步执行,能够达到毫秒级别延迟(取决于网络延迟)。同时,我们还对大key同步进行分批拉取,优化同步性能。
在 Redis 5.0、Redis 6.0 和 Redis 7.0 上测试
支持使用lua自定义过滤规则
支持大实例迁移
支持restore模式和sync模式
支持阿里云 Redis 和 ElastiCache
监控体系:用户可以通过我们提供的restful拉取metric来对redis-shake进行实时监控:curl 127.0.0.1:9320/metric。
数据校验:如何校验同步的正确性?可以采用我们开源的redis-full-check。
支持版本:支持2.8-5.0版本的同步,此外还支持codis,支持云下到云上,云上到云上,云上到云下(阿里云目前支持主从版),其他云到阿里云等链路,帮助用户灵活构建混合云场景。
断点续传。支持断开后按offset恢复,降低因主备切换、网络抖动造成链路断开重新同步拉取全量的性能影响。

RedisShake执行过程
启动Redis-shake进程,这个进程模拟了一个 Redis 实例,Redis-shake的基本原理就是模拟一个Slave从节点加入源Redis集群,然后进行增量的拉取(通过psync命令)。
Redis-shake进程和数据迁出的源实例进行数据的全量拉取同步,并回放,这个过程和 Redis 主从实例的全量同步是类似的。如下图所示。

详细分析上述同步原理
源Redis服务实例相当于主库,Redis-shake相当于从库,它会发送psync指令给源Redis服务实例。
源Redis实例先把RDB文件传输给 Redis-shake ,Redis-shake 会把RDB文件发送给目的实例。
源实例会再把增量命令发送给 Redis-shake ,Redis-shake负责把这些增量命令再同步给目的实例。
如果源端是集群模式,只需要启动一个redis-shake进行拉取,同时不能开启源端的move slot操作。如果目的端是集群模式,可以写入到一个结点,然后再进行slot的迁移,当然也可以多对多写入。
目前,redis-shake到目的端采用单链路实现,对于正常情况下,这不会成为瓶颈,但对于极端情况,qps比较大的时候,此部分性能可能成为瓶颈,后续我们可能会计划对此进行优化。另外,redis-shake到目的端的数据同步采用异步的方式,读写分离在2个线程操作,降低因为网络时延带来的同步性能下降。
Redis-Shake安装使用
主要有两种方式:下载Release版本的可执行二进制包、下载源码文件进行编译操作这两种方式。
下载Release版本的可执行二进制包
Download from Release

点击下载就可以进行直接使用Redis-Shake服务。
下载源码文件进行编译操作
除了直接下载可执行包之外,还可以下载源码之后,可以进行运行build.sh文件执行进行编译源码,生成可执行包。可以根据上面的下载中source code进行下载。

或者可以针对于Git进行clone源码仓库,如下所示。
运行Redis-Shake服务
首先如果需要进行同步和重放,则需要进行编辑sync.toml文件以及编辑restore.toml.
redis-shake 支持三种数据迁移模式:sync、restore 和 scan:
快速开始:数据迁移(使用 sync 模式)
快速开始:从dump.rdb恢复数据(使用 restore 模式)
快速开始:数据迁移(使用 scan 模式)
使用 filters 做数据清洗
运行日志
运行监控

启动同步sync运行机制
我们打开或者编辑sync.toml

当我们编辑sync.toml文件之后,可以进行配置我们实际情况下的source源redis实例以及target目标redis实例。之后可以配置对应的cpu和相关性能的配置。下面针对于配置进行相关的配置介绍
Redis单机实例同步到Redis单机实例
修改sync.toml,改为如下配置。
启动 redis-shake:
Redis单机实例同步到Redis集群实例
修改 sync.toml,改为如下配置:
启动 redis-shake:
Redis集群实例同步到Redis集群实例
方法1:手动起多个 redis-shake
集群C有四个节点:
192.168.0.1:6379
192.168.0.2:6379
192.168.0.3:6379
192.168.0.4:6379
把4个节点当成4个单机实例,参照单机到集群 部署 4 个 redis-shake 进行数据同步。不要在同一个目录启动多个 redis-shake,因为 redis-shake 会在本地存储临时文件,多个 redis-shake 之间的临时文件会干扰,正确做法是建立多个目录。
方法2:借助 cluster_helper.py 启动
脚本cluster_helper.py可以方便启动多个redis-shake从集群迁移数据,效果等同于方法1。
源端有多少个分片,cluster_helper.py 就会起多少个 redis-shake 进程,所以如果源端分片数较多的时候,需要评估当前机器是否可以承担这么多进程。
cluster_helper.py 异常退出的时候,可能没有正常退出 redis-shake 进程,需要 ps aux | grep redis-shake 检查。
每个 redis-shake 进程的执行日志记录在 RedisShake/cluster_helper/data/xxxxx 中,反馈问题请提供相关日志。
Python 需要 python3.6 及以上版本,安装 Python依赖:
配置
修改 sync.toml:
运行
参数 1 是 redis-shake 可执行程序的路径
参数 2 是配置文件路径