随着业务的发展,系统的并发会越来越高,数据也会越来越大,单机已经无法提供可靠的服务,构建集群势在必行。
要做集群首先要解决的一个问题就是数据分布的问题,一个优秀的数据分布设计可以让我们高效的访问数据。数据分区就是把数据按一定的分区规则分配到不同的子集当中。
常用的两种分区方式有顺序分区和哈希分区,顺序分区常在一些关系型数据库中使用,如图所示就是一个简单的顺序分区
如下,是哈希分布的示例,对数字进行hash函数运算,然后对节点进行取于运算
节点取于分区
这种分区算法有一个缺陷就在于动态扩容或者缩容 时数据偏移大,
如下所示,当节点由3变成4,几乎所有的数据都发生了偏移,80%的数据会产生迁移,数据存储的节点偏移后那么会造成缓存无法命中,需要重新回写缓存。
一致性哈希
一致性哈希旨在解决扩容造成的数据偏移问题,从0-232依次取模,将数据空间组织成一个虚拟的圆环,每一个节点在环上分配一个点,保存数据时,对数据进行hash,落到哈希环中的某一点,然后顺时针去找离它最近的节点存储。
它的好处如图所示,当增加一个节点n5时,按照数据顺时针寻找节点的规则,只会影响n1和n5之间的数据,其他部分的数据不会产生任何影响。
但是它的缺点也能从图中看出来,那就是数据分布不均,n3和n4中的数据远远大于n5和n2。
虚拟哈希分布
针对节点分布不均造成缓存数据集中的问题,引入虚拟节点均匀分布在哈希环上,虚拟节点映射到真实的物理节点上,当数据顺时针找到虚拟节点时会存储到该虚拟节点的映射的真实节点中,如图,节点A和B都分配了虚拟的#1,#2,#3节点,解决分布不均的问题。
Redis中是采用了该分区方式,不过redis是平均分配16384个虚拟槽节点。
Redis集群有16384个哈希槽,每个key通过CRC16校验后对16384取模来决定放置哪个槽.集群的每个节点负责一部分hash槽,举个例子,比如当前集群有3个节点,那么:
节点 A 包含 0 到 5500号哈希槽.
节点 B 包含5501 到 11000 号哈希槽.
节点 C 包含11001 到 16384号哈希槽.
安装与运维
在redis中文官网给出了详细的教程
http://www.redis.cn/topics/cluster-tutorial.html