Redis 的横向扩展案例
发布日期:2016-4-27 13:4:25
一、目录 以为为本文目录: 一 目录 二 背景介绍 三 分析解决
四 原理探讨 五 案例小结 一 背景介绍 A 项目采集其它项目生成的数据,数据保存一定时间,且不需要持久化。所以 A 项目使用单点 Redis 做缓存。长期以来,该 Redis 实例在高峰期间的 QPS 高达 100K,甚至一度达到 120K。于是在某天晚上,终于崩溃了。这也印证了「墨菲定律」,事情如果有变坏的可能,不管这种可能性有多小,它总会发生(Anything that can go wrong will go wrong)。因此,平时的运维过程,千万不要抱有侥幸心理,有问题就第一时间反应,有隐患就及时处理。 二 分析解决 3.1 初步分析 单点 Redis 实例崩溃,现象就是新的连接不能建立,超时严重,数据不能及时读取。查看系统日志,发现有大量形如「kernel: Possible SYN flooding on port xxxx. Sending cookies」的日志。我们很快排查了系统遭受攻击的可能性。查看端口占用情况,确实是被 Redis 消耗了。分析监控数据和端口数情况,这时的 Redis 连接数达到了 7K,QPS 已经达到 100K。现在亟待解决的问题就是连接数高的问题。另外,针对 QPS 过高的问题,确认是否可以使用 Redis 管道技术。如图1所示: 图1 经过与研发沟通,得知程序采用 Nginx Lua 实现。Lua 是一个简洁、轻量、可扩展的脚本语言,也号称是性能最高的脚本语言。使用 Nginx Lua,再加上 LuaRedisModule 模块,就可以原生地与 Redis 建立请求,并且解析响应。但是真实的项目中采用的是 lua-resty-redis,这是一个为 ngx_lua 设计的,基于 cosocket API 的 Redis Lua 客户端。 程序中使用了如下所示的设置: set_keepalive(5000, 20) 其中:
这个方法是为每个 Nginx 工作进程设置的。也就是说,最终建立的连接计算公式如下: connectionNum(连接数) = machineNum(机器数) * nginxWokerProcess(每台机器的 Nginx 工作进程数) * pool_size(连接池大小) 前端有四台 Web 服务器,每台机器 18 个 Nginx 工作进程,按照上面的设置,那与单点 Redis 建立的连接数为 4*18*20,也就是 1440。然而,真实的连接已经达到 7K,看来问题并不在这里。 我们又尝试使用 Redis Pipeline,至于原因,看下面所示。 Redis为一种基于客户端/服务端模型以及请求/响应协议的 TCP 服务,类似mysql。这意味着通常情况下一个请求会遵循以下所示的步骤:
Redis 管道可以在服务端未响应时,客户端可以继续向服务端发送请求,并最终一次性读取所有服务端的响应。可以简单地理解为批量操作,一次返回。 但是,真实场景中,绝大多多数的命令是 INCR,也就是 +1 的操作。这类操作使用管道的意义不是太大,于是放弃了。 3.2 使用 Twemproxy 横向扩展 我们尝试进行 Scale Out,增加 Redis 实例,并且使用 Twemproxy 代理,每台 Web 服务器访问本地的 Twemproxy。 在这里不妨简单介绍下 Twemproxy。为了满足数据的日益增长与扩展性,数据存储系统一般都需要进行一定的分片。分片主要存在三个位置:
Redis Cluster 属于第一层,Twemproxy 属于第二层,Memcached 属于第三层。Twemproxy(又称为 nutcracker)是一个轻量级的 Redis 和 Memcached 代理,主要用于分片。Twemproxy 由 Twitter 开源出来的缓存服务器集群管理工具,主要用来弥补 Redis 和 Memcached 对集群 (Cluster) 管理的不足。Twemproxy 按照一定的路由规则,转发给后台的各个 Redis 实例,再原路返回。有了 Twemproxy,前端不再关心后端代理了多少 Redis 实例,而只需访问 Twemproxy 即可,一方面简化了开发难度,另一方面提高了性能。Twemproxy 支持大部分命令,但对多键命令的支持有限,并且会有 20% 左右的性能损失(Twitter 官方测试结果)。简单来说,Twemproxy 就是一个支持 Redis 协议,对前端透明,支持分片,性能优秀的代理。虽然现在有很多人用mysql,但目前 Redis 3.0 已经发布,不少厂商会选择使用 Redis 3.0 代替 Twemproxy,这还要时间。 我们在独立服务器新增了 4 个实例,并且 Web 服务器部署 Twemproxy,应用访问本地的 Twemproxy。但实际的效果并不理想,Redis QPS 依然高,本地的 Twemproxy 居然让 Web 服务器性能恶化。另外一个有趣的现象是,Twemproxy 代理的几个 Redis 实例存在严重的数据倾斜。有些 Redis 实例 QPS 可以达到 80K,有些 Redis 只有 5K 左右。 目前我们的问题主要集中在两个问题上:
经过研发排查,找出一段令人匪夷所思的代码。Nginx Lua 中的超时时间是 60s,这也解释了为什么实际连接跟理论连接相差如此巨大。 3.3 问题解决 经过以上的分析,我们决定分两步走:
研发把超时改为 2s,并且根据实际情况更改了连接池,观察效果。可以明显地看到,连接数降到 1K 左右,机器 Socket 使用数下降显著,连接没有阻塞,业务没有较大的波动。 解决了连接数的问题,接下来我们解决数据倾斜的问题。 如之前所说,Scale Out 后,Redis 实例存在严重的数据倾斜。有些 Redis 实例 QPS 可以达到 80K,有些 Redis 只有 5K 左右。分析这个问题,这就要从业务数据形态入手。这个业务是统计业务,由大量的 INCR 操作,并且产生的 Key 较少。Twemproxy 根据配置的一致性 Hash 函数,对 Key 进行 Hash 校验,再决定转发到对应的 Redis 实例。 根据以上分析,产生的 Key 较少,也就是重复率较高,导致转发的 Redis 实例就会集中。这也解释了为什么会产生数据倾斜。针对这个问题,我们展开讨论。最开始打算写本地文件,然后定时写入 Redis,这样 Redis 的 QPS 会下降不少。但考虑到定时器实现较复杂,于是采取了拆分 Key 的办法。举个例子,比如之前是一分钟一个 Key,那现在 1 分钟产生 10+ Key,甚至更多,那这样数据倾斜的问题自然会慢慢减缓,直至消除。 经过研发的艰苦奋斗,把 Key 拆分后,效果明显。QPS 分摊到各个 Redis 实例,连接数下降,Web 服务器性能提高。 四 原理探讨 在原理探讨这一小结,这里只针对 Twemproxy 一致性 Hash 函数进行浅薄地分析。 Twemproxy 提供取模,一致性哈希等手段进行数据分片,维护与后端 Server 的长连接,自动踢除 Server、恢复 Server,提供专门的状态监控端口供外部工具获取状态监控信息。Twemproxy 使用的是单进程单线程来处理请求,只另外起了一个线程来处理统计数据。 Twemproxy 的代码组成如下:事件处理、多种 Hash 函数、协议、自定义的数据类型、网络通信、信号处理、数据结构和算法、统计日志和工具、配置文件和主程序。 第二小结有提到 Twemproxy 的 一致性Hash 函数。一致性 Hash 函数有:
Key 的分发模式有:
线上业务配置的 Hash 函数是 fnv1a_64,分发模式为 ketama。 fnv1a_64 Hash 算法的实现,我们可以用如下 Python 代码(来自 ning)模拟,如下所示: def hash_fnv1a_64(s): UINT32_MAX=2**32 FNV_64_INIT = 0xcbf29ce484222325 % UINT32_MAX FNV_64_PRIME = 0x100000001b3 % UINT32_MAX hval = FNV_64_INIT for c in s: hval = hval ^ ord(c) hval = (hval * FNV_64_PRIME) % UINT32_MAX return hval Key 重复率越高,根据一致性函数处理后,转发到相同机器的概率就会越高。 此外,ketama 分发模式的算法复杂度是 O(LogN),然而 modula 的算法复杂度是 O(1)。按照官方的示例,我们默认采用了 ketama。不过最好按照实际环境配置。 五 总结 此案例非常具有代表性。原因是:
遇到瓶颈问题,可以从如下几个角度思考:
上一条: MongoDB JVM开发库的介绍 下一条: mysql查询数据
|