Redis集群
2021-04-01 14:09:24 0 举报
AI智能生成
Redis集群
作者其他创作
大纲/内容
Redis集群
主从模式
特点
①主数据库可以进行读写操作,当读写操作导致数据变化时会自动将数据同步给从数据库
②从数据库一般都是只读的,并且接收主数据库同步过来的数据
③一个master可以拥有多个slave,但是一个slave只能对应一个master
④slave挂了不影响其他slave的读和master的读和写,重新启动后会将数据从master同步过来
⑤master挂了以后,不影响slave的读,但redis不再提供写服务,master重启后redis将重新对外提供写服务
⑥ master挂了以后,不会在slave节点中重新选一个master
机制
缺点
master节点在主从模式中唯一,若master挂掉,则redis无法对外提供写服务。不具备高可用性。
master的写的压力难以降低
master宕机,恢复过程比较麻烦且容易出错
优点
主写从读,读写分离,降低读压力
从节点宕机,影响较小
Redis-master宕机解决方案
①在slave中选择一个执行SLAVEOF NO ONE指令
②将宕机的master重启后,执行SLAVEOF指令,将其设置为slave,这时数据就能更新回来
方案
Sentinel模式
①当master挂了以后,sentinel会在slave中选择一个做为master,并修改它们的配置文件,其他slave的配置文件也会被修改,比如slaveof属性会指向新的master
②当master重新启动后,它将不再是master而是做为slave接收新的master的同步数据
③sentinel因为也是一个进程有挂掉的可能,所以sentinel会启动多个形成sentinel集群
④多sentinel配置的时候,sentinel会自动监控
⑤当主从模式配置密码时,sentinel也会同步将配置信息修改到配置文件中
⑥ 一个sentinel或sentinel集群可以管理多个主从Redis,多个sentinel也可以监控同一个redis
⑦sentinel最好不要和Redis部署在同一台机器,不然Redis的服务器挂了以后,sentinel也挂了
①每个sentinel以每秒钟一次的频率向它所知的master,slave以及其他sentinel实例发送一个 PING 指令
②如果一个实例距离最后一次有效回复 PING 指令的时间超过 down-after-milliseconds 选项所指定的值, 则这个实例会被sentinel标记为主观下线。
③如果一个master被标记为主观下线,则正在监视这个master的所有sentinel要以每秒一次的频率确认master的确进入了主观下线状态
④当有足够数量的sentinel(大于等于配置文件指定的值)在指定的时间范围内确认master的确进入了主观下线状态, 则master会被标记为客观下线
⑤在一般情况下, 每个sentinel会以每 10 秒一次的频率向它已知的所有master,slave发送 INFO 命令
⑥当master被sentinel标记为客观下线时,sentinel向下线的master的所有slave发送 INFO 命令的频率会从 10 秒一次改为 1 秒一次
⑦若没有足够数量的sentinel同意master已经下线,master的客观下线状态就会被移除; 若master重新向sentinel的 PING 命令返回有效回复,master的主观下线状态就会被移除
①Redis Sentinel 集群部署简单
②能够解决 Redis 主从模式下的高可用切换问题
③很方便实现 Redis 数据节点的线形扩展,轻松突破 Redis 自身单线程瓶颈,极大满足 Redis 大容量或高性能的业务需求
④可以实现一套 Sentinel 监控一组 Redis 数据节点或多组数据节点
①部署相对 Redis 主从模式要复杂一些,原理理解更繁琐
②资源浪费,Redis 数据节点中 slave 节点作为备份节点不提供服务
③Redis Sentinel 主要是针对 Redis 数据节点中的主节点的高可用切换,对 Redis 的数据节点做失败判定分为主观下线和客观下线两种,对于 Redis 的从节点有对节点做主观下线操作,并不执行故障转移
④不能解决读写分离问题,实现起来相对复杂
Cluster模式
①多个redis节点网络互联,数据共享
②所有的节点都是一主一从(也可以是一主多从),其中从不提供服务,仅作为备用
③不支持同时处理多个key(如MSET/MGET),因为redis需要把key均匀分布在各个节点上, 并发量很高的情况下同时创建key-value会降低性能并导致不可预测的行为
④支持在线增加、删除节点
⑤客户端可以连接任何一个主节点进行读写
①无中心架构;数据按照 slot 存储分布在多个节点,节点间数据共享,可动态调整数据分布
②可扩展性:可线性扩展到 1000 多个节点,节点可动态添加或删除
③高可用性:部分节点不可用时,集群仍可用。通过增加 slave 做 standby 数据副本,能够实现故障自动 failover,节点之间通过 gossip 协议交换状态信息,用投票机制完成 slave 到 master 的角色提升
④降低运维成本,提高系统的扩展性和可用性
①Client 实现复杂,驱动要求实现 Smart Client,缓存 slots mapping 信息并及时更新,提高了开发难度,客户端的不成熟影响业务的稳定性。目前仅 JedisCluster 相对成熟,异常处理部分还不完善,比如常见的“max redirect exception”。
②节点会因为某些原因发生阻塞(阻塞时间大于 clutser-node-timeout),被判断下线,这种 failover 是没有必要的。
③数据通过异步复制,不保证数据的强一致性。
④多个业务使用同一套集群时,无法根据统计区分冷热数据,资源隔离性较差,容易出现相互影响的情况。
⑤Slave 在集群中充当“冷备”,不能缓解读压力,当然可以通过 SDK 的合理设计来提高 Slave 资源的利用率。
⑥Key 批量操作限制,如使用 mset、mget 目前只支持具有相同 slot 值的 Key 执行批量操作。对于映射为不同 slot 值的 Key 由于 Keys 不支持跨 slot 查询,所以执行 mset、mget、sunion 等操作支持不友好。
⑦Key 事务操作支持有限,只支持多 key 在同一节点上的事务操作,当多个 Key 分布于不同的节点上时无法使用事务功能。
⑧Key 作为数据分区的最小粒度,不能将一个很大的键值对象如 hash、list 等映射到不同的节点。
⑨不支持多数据库空间,单机下的 redis 可以支持到 16 个数据库,集群模式下只能使用 1 个数据库空间,即 db 0。
⑩复制结构只支持一层,从节点只能复制主节点,不支持嵌套树状复制结构。
避免产生 hot-key,导致主库节点成为系统的短板。避免产生 big-key,导致网卡撑爆、慢查询等。重试时间应该大于 cluster-node-time 时间。
Redis Cluster 不建议使用 pipeline 和 multi-keys 操作,减少 max redirect 产生的场景
自研
0 条评论
回复 删除
下一页