连锁更新 ----------- 前面说过, 每个节点的 ``previous_entry_length`` 属性都记录了前一个节点的长度: - 如果前一节点的长度小于 ``254`` 字节, 那么 ``previous_entry_length`` 属性需要用 ``1`` 字节长的空间来保存这个长度值。 - 如果前一节点的长度大于等于 ``254`` 字节, 那么 ``previous_entry_length`` 属性需要用 ``5`` 字节长的空间来保存这个长度值。 现在, 考虑这样一种情况: 在一个压缩列表中, 有多个连续的、长度介于 ``250`` 字节到 ``253`` 字节之间的节点 ``e1`` 至 ``eN`` , 如图 7-11 所示。 .. graphviz:: digraph { label = "\n 图 7-11 包含节点 e1 至 eN 的压缩列表"; node [shape = record]; ziplist [label = " zlbytes| zltail | zllen | e1 | e2 | e3 | ... | eN | zlend "]; } 因为 ``e1`` 至 ``eN`` 的所有节点的长度都小于 ``254`` 字节, 所以记录这些节点的长度只需要 ``1`` 字节长的 ``previous_entry_length`` 属性, 换句话说, ``e1`` 至 ``eN`` 的所有节点的 ``previous_entry_length`` 属性都是 ``1`` 字节长的。 这时, 如果我们将一个长度大于等于 ``254`` 字节的新节点 ``new`` 设置为压缩列表的表头节点, 那么 ``new`` 将成为 ``e1`` 的前置节点, 如图 7-12 所示。 .. graphviz:: digraph { label = "\n 图 7-12 添加新节点到压缩列表"; rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | ... | eN | zlend "]; p [label = "添加新节点", shape = plaintext]; p -> ziplist:new; } 因为 ``e1`` 的 ``previous_entry_length`` 属性仅长 ``1`` 字节, 它没办法保存新节点 ``new`` 的长度, 所以程序将对压缩列表执行空间重分配操作, 并将 ``e1`` 节点的 ``previous_entry_length`` 属性从原来的 ``1`` 字节长扩展为 ``5`` 字节长。 现在, 麻烦的事情来了 —— ``e1`` 原本的长度介于 ``250`` 字节至 ``253`` 字节之间, 在为 ``previous_entry_length`` 属性新增四个字节的空间之后, ``e1`` 的长度就变成了介于 ``254`` 字节至 ``257`` 字节之间, 而这种长度使用 ``1`` 字节长的 ``previous_entry_length`` 属性是没办法保存的。 因此, 为了让 ``e2`` 的 ``previous_entry_length`` 属性可以记录下 ``e1`` 的长度, 程序需要再次对压缩列表执行空间重分配操作, 并将 ``e2`` 节点的 ``previous_entry_length`` 属性从原来的 ``1`` 字节长扩展为 ``5`` 字节长。 正如扩展 ``e1`` 引发了对 ``e2`` 的扩展一样, 扩展 ``e2`` 也会引发对 ``e3`` 的扩展, 而扩展 ``e3`` 又会引发对 ``e4`` 的扩展……为了让每个节点的 ``previous_entry_length`` 属性都符合压缩列表对节点的要求, 程序需要不断地对压缩列表执行空间重分配操作, 直到 ``eN`` 为止。 Redis 将这种在特殊情况下产生的连续多次空间扩展操作称之为“连锁更新”(cascade update), 图 7-13 展示了这一过程。 .. graphviz:: digraph { rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | ... | eN | zlend "]; p [label = "扩展 e1 \n并引发对 e2 的扩展", shape = plaintext]; p -> ziplist:e1; } .. graphviz:: digraph { rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | ... | eN | zlend "]; p [label = "扩展 e2 \n并引发对 e3 的扩展", shape = plaintext]; p -> ziplist:e2; } .. graphviz:: digraph { rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | ... | eN | zlend "]; p [label = "扩展 e3 \n并引发对 e4 的扩展", shape = plaintext]; p -> ziplist:e3; } .. graphviz:: digraph { rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | ... | eN | zlend "]; p [label = "一直扩展下去……", shape = plaintext]; p -> ziplist:more; } .. graphviz:: digraph { label = "\n 图 7-13 连锁更新过程"; rankdir = BT; node [shape = record]; ziplist [label = " zlbytes | zltail | zllen | new | e1 | e2 | e3 | e4 | ... | eN | zlend "]; p [label = "为 eN-1 扩展 eN 的 previous_entry_length 属性 \n 连锁更新到此结束", shape = plaintext]; p -> ziplist:eN; } 除了添加新节点可能会引发连锁更新之外, 删除节点也可能会引发连锁更新。 考虑图 7-14 所示的压缩列表, 如果 ``e1`` 至 ``eN`` 都是大小介于 ``250`` 字节至 ``253`` 字节的节点, ``big`` 节点的长度大于等于 ``254`` 字节(需要 ``5`` 字节的 ``previous_entry_length`` 来保存), 而 ``small`` 节点的长度小于 ``254`` 字节(只需要 ``1`` 字节的 ``previous_entry_length`` 来保存), 那么当我们将 ``small`` 节点从压缩列表中删除之后, 为了让 ``e1`` 的 ``previous_entry_length`` 属性可以记录 ``big`` 节点的长度, 程序将扩展 ``e1`` 的空间, 并由此引发之后的连锁更新。 .. graphviz:: digraph { label = "\n 图 7-14 另一种引起连锁更新的情况"; rankdir = BT; node [shape = record]; ziplist [label = " zlbytes| zltail | zllen | big | small | e1 | e2 | e3 | ... | eN | zlend "]; node [shape = plaintext]; p [label = "删去 small 节点将引发连锁更新"]; p -> ziplist:small; } 因为连锁更新在最坏情况下需要对压缩列表执行 ``N`` 次空间重分配操作, 而每次空间重分配的最坏复杂度为 :math:`O(N)` , 所以连锁更新的最坏复杂度为 :math:`O(N^2)` 。 要注意的是, 尽管连锁更新的复杂度较高, 但它真正造成性能问题的几率是很低的: - 首先, 压缩列表里要恰好有多个连续的、长度介于 ``250`` 字节至 ``253`` 字节之间的节点, 连锁更新才有可能被引发, 在实际中, 这种情况并不多见; - 其次, 即使出现连锁更新, 但只要被更新的节点数量不多, 就不会对性能造成任何影响: 比如说, 对三五个节点进行连锁更新是绝对不会影响性能的; 因为以上原因, ``ziplistPush`` 等命令的平均复杂度仅为 :math:`O(N)` , 在实际中, 我们可以放心地使用这些函数, 而不必担心连锁更新会影响压缩列表的性能。