当 Redis 发生高延迟时,到底发生了什么

原文:当 Redis 发生高延迟时,到底发生了什么

Redis 是一种内存数据库,将数据保存在内存中,读写效率要比传统的将数据保存在磁盘上的数据库要快很多。但是 Redis 也会发生延迟时,这是就需要我们对其产生原因有深刻的了解,以便于快速排查问题,解决 Redis的延迟问题

一条命令执行过程

在本文场景下,延迟 (latency) 是指从客户端发送命令到客户端接收到命令返回值的时间间隔。所以我们先来看一下 Redis 一条命令执行的步骤,其中每个步骤出问题都可能导致高延迟。

当 Redis 发生高延迟时,到底发生了什么

上图是 Redis 客户端发送一条命令的执行过程示意图,绿色的是执行步骤,而蓝色的则是可能出现的导致高延迟的原因。

网络连接限制、网络传输速率和CPU性能等是所有服务端都可能产生的性能问题。但是 Redis 有自己独有的可能导致高延迟的问题:命令或者数据结构误用、持久化阻塞和内存交换。

而且更为致命的是,Redis 采用单线程和事件驱动的机制来处理网络请求,分别有对应的连接应答处理器,命令请求处理器和命令回复处理器来处理客户端的网络请求事件,处理完一个事件就继续处理队列中的下一个。一条命令处理出现了高延迟会影响接下来处于排队状态的其他命令。有关 Redis 事件处理机制的可以参考本篇文章

当 Redis 发生高延迟时,到底发生了什么

对于高延迟,Redis 原生提供慢查询统计功能,执行 slowlog get {n} 命令可以获取最近的 n 条慢查询命令,默认对于执行超过10毫秒(可配置)的命令都会记录到一个定长队列中,线上实例建议设置为1毫秒便于及时发现毫秒级以上的命令。

  1. <span># 超过 slowlog-log-slower-than 阈值的命令都会被记录到慢查询队列中</span>
  2. <span># 队列最大长度为 slowlog-max-len</span>
  3. <span>slowlog<span>-<span>log<span>-<span>slower<span>-<span>than <span>10000</span></span></span></span></span></span></span></span>
  4. <span>slowlog<span>-<span>max<span>-<span>len <span>128</span></span></span></span></span></span>

如果命令执行时间在毫秒级,则实例实际OPS只有1000左右。慢查询队列长度默认128,可适当调大。慢查询本身只记录了命令执行时间,不包括数据网络传输时间和命令排队时间,因此客户端发生阻塞异常 后,可能不是当前命令缓慢,而是在等待其他命令执行。需要重点比对异常和慢查询发生的时间点,确认是否有慢查询造成的命令阻塞排队。

slowlog的输出格式如下所示。第一个字段表示该条记录在所有慢日志中的序号,最新的记录被展示在最前面;第二个字段是这条记录被记录时的系统时间,可以用 date 命令来将其转换为友好的格式第三个字段表示这条命令的响应时间,单位为 us (微秒);第四个字段为对应的 Redis 操作。

  1. <span>><span> slowlog <span>get</span></span></span>
  2. <span>1<span>)<span> <span>1<span>)<span> <span>(<span>integer<span>)<span> <span>26</span></span></span></span></span></span></span></span></span></span></span>
  3. <span> <span>2<span>)<span> <span>(<span>integer<span>)<span> <span>1450253133</span></span></span></span></span></span></span></span></span>
  4. <span> <span>3<span>)<span> <span>(<span>integer<span>)<span> <span>43097</span></span></span></span></span></span></span></span></span>
  5. <span> <span>4<span>)<span> <span>1<span>)<span> <span>"flushdb"</span></span></span></span></span></span></span></span>

下面我们就来依次看一下不合理地使用命令或者数据结构、持久化阻塞和内存交换所导致的高延迟问题。

不合理的命令或者数据结构

一般来说 Redis 执行命令速度都非常快,但是当数据量达到一定级别时,某些命令的执行就会花费大量时间,比如对一个包含上万个元素的 hash 结构执行 hgetall 操作,由于数据量比较大且命令算法复杂度是 O(n),这条命令执行速度必然很慢。

这个问题就是典型的不合理使用命令和数据结构。对于高并发的场景我们应该尽量避免在大对象上执行算法复杂度超过 O(n) 的命令。对于键值较多的 hash 结构可以使用 scan 系列命令来逐步遍历,而不是直接使用 hgetall 来全部获取。

Redis 本身提供发现大对象的工具,对应命令:redis-cli-h {ip} -p {port} bigkeys。这条命令会使用 scan 从指定的 Redis DB 中持续采样,实时输出当时得到的 value 占用空间最大的 key 值,并在最后给出各种数据结构的 biggest key 的总结报告。

  1. <span>><span> redis<span>-<span>cli <span>-<span>h host <span>-<span>p <span>12345<span> <span>--<span>bigkeys</span></span></span></span></span></span></span></span></span></span></span></span>
  2. <span># Scanning the entire keyspace to find biggest keys as well as</span>
  3. <span># average sizes per key type. You can use -i 0.1 to sleep 0.1 sec</span>
  4. <span># per 100 SCAN commands (not usually needed).</span>
  5. <span>[<span>00.00<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:user‘<span> <span>with<span> <span>1<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  6. <span>[<span>00.00<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:product‘<span> <span>with<span> <span>3<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  7. <span>[<span>00.00<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:order‘<span> <span>with<span> <span>14<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  8. <span>[<span>02.29<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:fund‘<span> <span>with<span> <span>16<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  9. <span>[<span>02.29<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:pay‘<span> <span>with<span> <span>69<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  10. <span>[<span>04.45<span>%]<span> <span>Biggest<span> <span>set<span> found so far <span>‘indexed_word_set‘<span> <span>with<span> <span>1482<span> members</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  11. <span>[<span>05.93<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:address‘<span> <span>with<span> <span>159<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  12. <span>[<span>11.79<span>%]<span> <span>Biggest<span> hash found so far <span>‘idx:reply‘<span> <span>with<span> <span>196<span> fields</span></span></span></span></span></span></span></span></span></span></span></span>
  13. <span>--------<span> summary <span>-------</span></span></span>
  14. <span>Sampled<span> <span>1484<span> keys <span>in<span> the keyspace<span>!</span></span></span></span></span></span></span>
  15. <span>Total<span> key length <span>in<span> bytes <span>is<span> <span>13488<span> <span>(<span>avg len <span>9.09<span>)</span></span></span></span></span></span></span></span></span></span></span></span>
  16. <span>Biggest<span> <span>set<span> found <span>‘indexed_word_set‘<span> has <span>1482<span> members</span></span></span></span></span></span></span></span>
  17. <span>Biggest<span> hash found <span>‘idx:的‘<span> has <span>196<span> fields</span></span></span></span></span></span>
  18. <span>0<span> strings <span>with<span> <span>0<span> bytes <span>(<span>00.00<span>%<span> of keys<span>,<span> avg size <span>0.00<span>)</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  19. <span>0<span> lists <span>with<span> <span>0<span> items <span>(<span>00.00<span>%<span> of keys<span>,<span> avg size <span>0.00<span>)</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  20. <span>2<span> sets <span>with<span> <span>1710<span> members <span>(<span>00.13<span>%<span> of keys<span>,<span> avg size <span>855.00<span>)</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  21. <span>1482<span> hashs <span>with<span> <span>6731<span> fields <span>(<span>99.87<span>%<span> of keys<span>,<span> avg size <span>4.54<span>)</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  22. <span>0<span> zsets <span>with<span> <span>0<span> members <span>(<span>00.00<span>%<span> of keys<span>,<span> avg size <span>0.00<span>)</span></span></span></span></span></span></span></span></span></span></span></span></span></span>

持久化阻塞

对于开启了持久化功能的Redis节点,需要排查是否是持久化导致的阻 塞。持久化引起主线程阻塞的操作主要有:fork 阻塞、AOF刷盘阻塞。

fork 操作发生在 RDB 和 AOF 重写时,Redis 主线程调用 fork 操作产生共享内存的子进程,由子进程完成对应的持久化工作。如果 fork 操作本身耗时过长,必然会导致主线程的阻塞。

当 Redis 发生高延迟时,到底发生了什么

Redis 执行 fork 操作产生的子进程内存占用量表现为与父进程相同,理论上需要一倍的物理内存来完成相应的操作。但是 Linux 具有写时复制技术 (copy-on-write),父子进程会共享相同的物理内存页,当父进程处理写请求时会对需要修改的页复制出一份副本完成写操作,而子进程依然读取 fork 时整个父进程的内存快照。所以,一般来说,fork 不会消耗过多时间。

可以执行 <span>info stats</span>命令获取到 latestforkusec 指标,表示 Redis 最近一次 fork 操作耗时,如果耗时很大,比如超过1秒,则需要做出优化调整。

  1. <span>><span> redis<span>-<span>cli <span>-<span>c <span>-<span>p <span>7000<span> info <span>|<span> grep <span>-<span>w latest_fork_usec</span></span></span></span></span></span></span></span></span></span></span></span></span></span>
  2. <span>latest_fork_usec<span>:<span>315</span></span></span>

当我们开启AOF持久化功能时,文件刷盘的方式一般采用每秒一次,后 台线程每秒对AOF文件做 fsync 操作。当硬盘压力过大时,fsync 操作需要等待,直到写入完成。如果主线程发现距离上一次的 fsync 成功超过2秒,为了数据安全性它会阻塞直到后台线程执行 fsync 操作完成。这种阻塞行为主要是硬盘压力引起,可以查看 Redis日志识别出这种情况,当发生这种阻塞行为时,会打印如下日志:

  1. <span>Asynchronous<span> AOF fsync <span>is<span> taking too <span>long<span> <span>(<span>disk <span>is<span> busy<span>).<span> \ </span></span></span></span></span></span></span></span></span></span></span></span>
  2. <span>Writing<span> the AOF buffer without waiting <span>for<span> fsync to complete<span>,<span> \</span></span></span></span></span></span>
  3. <span>this<span> may slow down <span>Redis<span>.</span></span></span></span>

也可以查看 info persistence 统计中的 aofdelayedfsync 指标,每次发生 fdatasync 阻塞主线程时会累加。

  1. <span>><span>info persistence</span></span>
  2. <span>loading<span>:<span>0</span></span></span>
  3. <span>aof_pending_bio_fsync<span>:<span>0</span></span></span>
  4. <span>aof_delayed_fsync<span>:<span>0</span></span></span>

内存交换

内存交换(swap)对于 Redis 来说是非常致命的,Redis 保证高性能的一个重要前提是所有的数据在内存中。如果操作系统把 Redis 使用的部分内存换出到硬盘,由于内存与硬盘读写速度差几个数量级,会导致发生交换后的 Redis 性能急剧下降。识别 Redis 内存交换的检查方法如下:

  1. <span>><span>redis<span>-<span>cli <span>-<span>p <span>6383<span> info server <span>|<span> grep process_id <span># 查询 redis 进程号</span></span></span></span></span></span></span></span></span></span></span>
  2. <span>><span>cat <span>/<span>proc<span>/<span>4476<span>/<span>smaps <span>|<span> grep <span>Swap<span> <span># 查询内存交换大小</span></span></span></span></span></span></span></span></span></span></span></span></span>
  3. <span>Swap<span>:<span> <span>0<span> kB </span></span></span></span></span>
  4. <span>Swap<span>:<span> <span>4<span> kB </span></span></span></span></span>
  5. <span>Swap<span>:<span> <span>0<span> kB </span></span></span></span></span>
  6. <span>Swap<span>:<span> <span>0<span> kB</span></span></span></span></span>

如果交换量都是0KB或者个别的是4KB,则是正常现象,说明Redis进程内存没有被交换。

有很多方法可以避免内存交换的发生。比如说:

  • 保证机器充足的可用内存
  • 确保所有Redis实例设置最大可用内存(maxmemory),防止极端情况下 Redis 内存不可控的增长。
  • 降低系统使用swap优先级,如 <span>echo10<span>><span>/proc/<span>sys<span>/<span>vm<span>/<span>swappiness</span></span></span></span></span></span></span></span>

参考

  • https://redis.io/topics/latency

相关推荐