Redis的应用:实现分布式系统轻量级协调技术
发布日期:2016-4-19 21:4:32
Redis的应用:实现分布式系统轻量级协调技术 本文讲述了如何使用 Redis 作共享内存来实现分布式系统中的协调技术,包括:
本文并对其优缺点以及使用场景做了简单描述。 在分布式系统中的各个进程相互之间通常是需要协调进行运作的,有时是不同进程所处理的数据有依赖关系,必须按照一定的次序进行处理,有时是在一些特定的时间需要某个进程处理某些事务等等,人们通常会使用分布式锁、选举算法等技术来协调各个进程之间的行为。由于分布式系统本身的复杂特性,以及对于容错性的要求,这些技术通常是重量级的,例如 Paxos 算法,欺负选举算法,ZooKeeper 等,侧重于消息的通信而不是共享内存,通常也是出了名的复杂与难以理解,当在具体的实现与实施中遇到问题时都是一个挑战。 Redis 经常被人们认为是一种 NoSQL 软件,但其本质上就像mssql一样,是一种分布式的数据结构服务器软件。特点:
1.signal/wait 操作 有些在分布式系统中进程需要等待其它进程的状态的改变,或通知其它进程自己的状态的改变,例如,进程之间有操作上的依赖次序时,就有进程需要等待,有进程需要发射信号通知等待的进程进行后续的操作,这些工作可以通过 Redis 的 Pub/Sub 系列命令来完成,例如以下程序,代码如下所示: import redis, time rc = redis.Redis() def wait( wait_for ): ps = rc.pubsub() ps.subscribe( wait_for ) ps.get_message() wait_msg = None while True: msg = ps.get_message() if msg and msg['type'] == 'message': wait_msg = msg break time.sleep(0.001) ps.close() return wait_msg def signal_broadcast( wait_in, data ): wait_count = rc.publish(wait_in, data) return wait_count 用上面所说的这个方法很容易进行扩展实现其它的等待策略,例如 try wait,wait 超时,wait 多个信号时是要等待全部信号还是任意一个信号到达即可返回等等。由于 Redis 本身支持基于模式匹配的消息订阅(使用 psubscribe 命令),设置 wait 信号时也可以通过模式匹配的方式进行。 订阅消息与其它的数据操作不同,它是即时易逝的,不在内存中保存,不进行持久化保存,若客户端到服务端的连接断开的话也是不会重发的,但在配置了 master/slave 节点的情况下,会把 publish 命令同步到 slave 节点上,这样我们就可以同时在 master 以及 slave 节点的连接上订阅某个频道,从而可以同时接收到发布者发布的消息,即使 master 在使用过程中出故障,或到 master 的连接出了故障,我们仍然能够从 slave 节点获得订阅的消息,从而获得更好的鲁棒性。此外,由于数据不用写入磁盘,这种方法在性能上也是有优势的。 上面所说的方法中信号是广播的,所有在 wait 的进程都会收到信号,如果要将信号设置成单播,只允许其中一个收到信号,就可以通过约定频道名称模式的方式来实现,例如:
其中唯一 ID 既可以是 UUID,也可以是一个随机数字符串,只要能确保全局唯一即可。在发送 signal 之前先使用“pubsub channels channel*”命令获得所有的订阅者订阅的频道,接着发送信号给其中一个随机指定的频道;等待的时候需要传递自己的唯一 ID,将频道名前缀与唯一 ID 合并为一个频道名称,然后同前面例子一样进行 wait。如以下的例子,代码如下所示: import random single_cast_script=""" local channels = redis.call('pubsub', 'channels', ARGV[1]..'*'); if #channels == 0 then return 0; end; local index= math.mod(math.floor(tonumber(ARGV[2])), #channels) + 1; return redis.call( 'publish', channels[index], ARGV[3]); """ def wait_single( channel, myid): return wait( channel + myid ) def signal_single( channel, data): rand_num = int(random.random() * 65535) return rc.eval( single_cast_script, 0, channel, str(rand_num), str(data) ) 2、回页首分布式锁 Distributed Locks 分布式锁的实现是人们探索的比较多的一个方向, Redis 的官方网站上专门有一篇文档介绍基于 Redis 的分布式锁,在文档里提出了 Redlock 算法,并列出了多种语言的实现案例,这里作一简要介绍。 Redlock 算法着眼于满足分布式锁的三个要素:
这个方法的特点:存在单点故障风险,如果部署了 master/slave 节点,则在特定条件下可能会导致安全性方面的冲突,如下面所说的这个例子:
在 Redlock 算法中,通过类似于以下所示的这样的命令进行加锁,代码如下: SET resource_name my_random_value NX PX 30000 这里的 my_random_value 为全局不同的随机数,每个客户端需要自己产生这个随机数并且记住它,后面解锁的时候需要用到它。 解锁则需要通过一个 Lua 脚本来执行,不能简单地直接删除 Key,否则可能会把别人持有的锁给释放了,代码如下所示: if redis.call("get",KEYS[1]) == ARGV[1] then return redis.call("del",KEYS[1]) else return 0 end 这个 ARGV[1] 的值就是前面加锁的时候的 my_random_value 的值。 如果需要更好的容错性,可以建立一个有 N(N 为奇数)个相互独立完备的 Redis 冗余节点的集群,这种情况下,一个客户端获得锁和释放锁的算法如下所示:
Redlock 算法不需要保证 Redis 节点之间的时钟是同步的,传统的一些基于同步时钟的分布式锁算法有所不同。Redlock 算法的具体的细节请参阅 Redis 的官方文档,以及文档中列出的多种语言版本的实现。 3、回页首选举算法 在分布式系统中,经常会有些事务是需要在某个时间段内由一个进程来完成,或者由一个进程作为 leader 来协调其它的进程,这个时候就需要用到选举算法,传统的选举算法有欺负选举算法(霸道选举算法)、环选举算法、Paxos 算法、Zab 算法 (ZooKeeper) 等,这些算法有些依赖于消息的可靠传递以及时钟同步,有些过于复杂,难以实现和验证。新的 Raft 算法相比较其它算法来说已经容易了很多,不过它仍然需要依赖心跳广播和逻辑时钟,leader 需要不断地向 follower 广播消息来维持从属关系,节点扩展时也需要其它算法配合。 和分布式锁有点类似,选举算法在任意时刻最多只能有一个 leader 资源。当然,我们也可以用前面描述的分布式锁来实现,设置一个 leader 资源,获得这个资源锁的为 leader,锁的生命周期过了之后,再重新竞争这个资源锁。这是一种竞争性的算法,这个方法会导致有比较多的空档期内没有 leader 的情况,也不好实现 leader 的连任,而 leader 的连任是有比较大的好处的,例如 leader 执行任务可以比较准时一些,查看日志以及排查问题的时候也方便很多,若我们需要一个算法实现 leader 可以连任,那么可以采用以下所示的这种方法,代码如下所示: import redis rc = redis.Redis() local_selector = 0 def master(): global local_selector master_selector = rc.incr('master_selector') if master_selector == 1: # initial / restarted local_selector = master_selector else: if local_selector > 0: # I'm the master before if local_selector > master_selector: # lost, maybe the db is fail-overed. local_selector = 0 else: # continue to be the master local_selector = master_selector if local_selector > 0: # I'm the current master rc.expire('master_selector', 20) return local_selector > 0 这个算法我们鼓励连任,只有当前的 leader 发生故障或者执行某个任务所耗时间超过了任期、或者 Redis 节点发生故障恢复之后才需要重新选举出新的 leader。在 master/slave 模式下,如果 master 节点发生故障,某个 slave 节点提升为新的 master 节点,即使当时 master_selector 值尚未能同步成功,也不会导致出现两个 leader 的情况。如果某个 leader 一直连任,则 master_selector 的值会一直递增下去,考虑到 master_selector 是一个 64 位的整型类型,在可预见的时间内是不可能溢出的,加上每次进行 leader 更换的时候 master_selector 会重置为从 1 开始,这种递增的方式是可以接受的,但是碰到 Redis 客户端(比如 Node.js)不支持 64 位整型类型的时候就需要针对这种情况作处理。如果当前 leader 进程处理时间超过了任期,则其它进程可以重新生成新的 leader 进程,老的 leader 进程处理完毕事务后,如果新的 leader 的进程经历的任期次数超过或等于老的 leader 进程的任期次数,则可能会出现两个 leader 进程,为了避免这种情况,每个 leader 进程在处理完任期事务之后都应该检查一下自己的处理时间是否超过了任期,如果超过了任期,则应当先设置 local_selector 为 0 之后再调用 master 检查自己是否是 leader 进程。 4、回页首消息队列 消息队列是分布式系统之间的通信基本设施,通过消息可以构造复杂的进程间的协调操作与互操作。Redis 也提供了构造消息队列的原语,比如 Pub/Sub ,mssql系列命令,就提供了基于订阅/发布模式的消息收发方法,但是 Pub/Sub 消息并不在 Redis 内保持,从而也就没有进行持久化,适用于所传输的消息即使丢失了也没有关系的场景。 如果要考虑到持久化,则可以考虑 list 系列操作命令,用 PUSH 系列命令(LPUSH, RPUSH 等)推送消息到某个 list,用 POP 系列命令(LPOP, RPOP,BLPOP,BRPOP 等)获取某个 list 上的消息,通过不同的组合方式可以得到 FIFO,FILO,比如: import redis rc = redis.Redis() def fifo_push(q, data): rc.lpush(q, data) def fifo_pop(q): return rc.rpop(q) def filo_push(q, data): rc.lpush(q, data) def filo_pop(q): return rc.lpop(q) 如果用 BLPOP,BRPOP 命令替代 LPOP, RPOP,则在 list 为空的时候还支持阻塞等待。然而,即使按照这种方式实现了持久化,如果在 POP 消息返回的时候网络故障,则依然会发生消息丢失,针对这种需求 Redis 提供了 RPOPLPUSH 和 BRPOPLPUSH 命令来先将提取的消息保存在另外一个 list 中,客户端可以先从这个 list 查看和处理消息数据,处理完毕之后再从这个 list 中删除消息数据,从而确保了消息不会丢失,如以下的例子,代码如下所示: def safe_fifo_push(q, data): rc.lpush(q, data) def safe_fifo_pop(q, cache): msg = rc.rpoplpush(q, cache) # check and do something on msg rc.lrem(cache, 1) # remove the msg in cache list. return msg 如果使用 BRPOPLPUSH 命令替代 RPOPLPUSH 命令,则可以在 q 为空的时候阻塞等待。 5、回页首结语 使用 Redis 作为分布式系统的共享内存,以共享内存模式为基础来实现分布式系统协调技术,虽然不像传统的基于消息传递的技术那样有着坚实的理论证明的基础,但它在一些要求不苛刻的情况下不失为一种简单实用的轻量级解决方案,毕竟不是每个系统都需要严格的容错性等要求,也不是每个系统都会频繁地发生进程异常,而且 Redis 本身已经经受了工业界的多年实践和考验。另外,用 Redis 技术还有一些额外的好处,比如在开发过程中和生产环境中都可以直接观察到锁、队列的内容,实施的时候也不需要额外的特别配置过程等,它足够简单,在调试问题的时候逻辑清晰,进行排查和临时干预也比较方便。在可扩展性方面也比较好,可以动态扩展分布式系统的进程数目,而不需要事先预定好进程数目。 Redis 支持基于 Key 值 hash 的集群,在集群中应用本文所述技术时建议另外部署专用 Redis 节点(或者冗余 Redis 节点集群)来使用,由于在基于 Key 值 hash 的集群中,不同的 Key 值会根据 hash 值被分布到不同的集群节点上,而且对于 Lua 脚本的支持也受到限制,难以保证一些操作的原子性,这一点是需要考虑到的。使用专用节点还有一个好处是专用节点的数据量会少很多,当应用了 master/slave 部署或者 AOF 模式的时候,由于数据量少,master 与slave 之间的同步会少很多,AOF 模式实时写入磁盘的数据也少很多,这样子也可以大大提高可用性。 注明:本文示例所列 Python 代码在 Python3.4 下运行,Redis 客户端采用 redis 2.10.3,Redis 服务端版本为 3.0.1 版。参考资料 6、学习 Redis 的官方网站,上面有非常全面的 Redis 相关文档,包括命令和部署方面的知识。Redlock 算法官方网站,上面有详细的文档,包括对该算法的详细分析,以及多种实现的链接。Raft 算法的官方网站,上面有丰富的 Raft 算法的资料,包括了该算法作者的论文以及其它相关论文和教程等,上面还收录了多种实现方案的链接。Wikipedia,上面有 Bull 算法与环选举算法的介绍。Benjamin Reed 和 Flavio P.Junqueira 所著论文《A simple totally ordered broadcast protocol》以及 ZooKeeper 网站,对 Zab 算法进行了介绍。developerWorks 开源技术主题:查找丰富的操作信息、工具和项目更新,帮助您掌握开源技术并将其用于 IBM 产品。讨论
上一条: nodejs+redis应用说明 下一条: Redis的特性
|