Redis 集群管理常见操作

Redis 内置客户端 redis-cli 通过 --cluster 选项集成了多个 Redis 集群管理工具, 这些工具可以执行创建集群、向集群中添加或移除节点、对集群实施重分片以及负载均衡等操作, 它们每一个都非常强大:

$ redis-cli --cluster help

Cluster Manager Commands:

  create        host1:port1 ... hostN:portN

                --cluster-replicas <arg>

  check          host:port

  info          host:port

  fix            host:port

  reshard        host:port

                --cluster-from <arg>

                --cluster-to <arg>

                --cluster-slots <arg>

                --cluster-yes

                --cluster-timeout <arg>

                --cluster-pipeline <arg>

  rebalance      host:port

                --cluster-weight <node1=w1...nodeN=wN>

                --cluster-use-empty-masters

                --cluster-timeout <arg>

                --cluster-simulate

                --cluster-pipeline <arg>

                --cluster-threshold <arg>

  add-node      new_host:new_port existing_host:existing_port

                --cluster-slave

                --cluster-master-id <arg>

  del-node      host:port node_id

  call          host:port command arg arg .. arg

  set-timeout    host:port milliseconds

  import        host:port

                --cluster-from <arg>

                --cluster-copy

                --cluster-replace

  help

For check, fix, reshard, del-node, set-timeout you can specify the host and port of any working node in the cluster.

本文将对上述工具的其中一些进行介绍, 帮助大家初步地了解这些工具的基本用法。

创建集群的工作可以通过 create 命令来完成, 用户只需要给定各个节点的地址以及想要设置的从服务器数量即可。 比如说, 通过执行以下命令, 我们可以创建出一个由三个主节点和三个从节点组成的集群:

$ redis-cli --cluster create 127.0.0.1:30001 127.0.0.1:30002 127.0.0.1:30003 127.0.0.1:30004 127.0.0.1:30005 127.0.0.1:30006 --cluster-replicas 1

>>> Performing hash slots allocation on 6 nodes...

Master[0] -> Slots 0 - 5460

Master[1] -> Slots 5461 - 10922

Master[2] -> Slots 10923 - 16383

Adding replica 127.0.0.1:30004 to 127.0.0.1:30001

Adding replica 127.0.0.1:30005 to 127.0.0.1:30002

Adding replica 127.0.0.1:30006 to 127.0.0.1:30003

>>> Trying to optimize slaves allocation for anti-affinity

[WARNING] Some slaves are in the same host as their master

M: 4979f8583676c46039672fb7319e917e4b303707 127.0.0.1:30001

  slots:[0-5460] (5461 slots) master

M: 4ff303d96f5c7436ce8ce2fa6e306272e82cd454 127.0.0.1:30002

  slots:[5461-10922] (5462 slots) master

M: 07e230805903e4e1657743a2e4d8811a59e2f32f 127.0.0.1:30003

  slots:[10923-16383] (5461 slots) master

S: 4788fd4d92387fc5d38a2cd12f0c0d80fc0f6609 127.0.0.1:30004

  replicates 4979f8583676c46039672fb7319e917e4b303707

S: b45a7f4355ea733a3177b89654c10f9c31092e92 127.0.0.1:30005

  replicates 4ff303d96f5c7436ce8ce2fa6e306272e82cd454

S: 7c56ffba63e3758bc4c2e9b6a55caf294bb21650 127.0.0.1:30006

  replicates 07e230805903e4e1657743a2e4d8811a59e2f32f

Can I set the above configuration? (type 'yes' to accept): yes

>>> Nodes configuration updated

>>> Assign a different config epoch to each node

>>> Sending CLUSTER MEET messages to join the cluster

Waiting for the cluster to join

..

>>> Performing Cluster Check (using node 127.0.0.1:30001)

M: 4979f8583676c46039672fb7319e917e4b303707 127.0.0.1:30001

  slots:[0-5460] (5461 slots) master

  1 additional replica(s)

S: 4788fd4d92387fc5d38a2cd12f0c0d80fc0f6609 127.0.0.1:30004

  slots: (0 slots) slave

  replicates 4979f8583676c46039672fb7319e917e4b303707

S: b45a7f4355ea733a3177b89654c10f9c31092e92 127.0.0.1:30005

  slots: (0 slots) slave

  replicates 4ff303d96f5c7436ce8ce2fa6e306272e82cd454

S: 7c56ffba63e3758bc4c2e9b6a55caf294bb21650 127.0.0.1:30006

  slots: (0 slots) slave

  replicates 07e230805903e4e1657743a2e4d8811a59e2f32f

M: 4ff303d96f5c7436ce8ce2fa6e306272e82cd454 127.0.0.1:30002

  slots:[5461-10922] (5462 slots) master

  1 additional replica(s)

M: 07e230805903e4e1657743a2e4d8811a59e2f32f 127.0.0.1:30003

  slots:[10923-16383] (5461 slots) master

  1 additional replica(s)

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

通过执行 info 命令, 用户可以看到集群包含的主从节点数量, 以及集群中的键、槽分布信息:

$ redis-cli --cluster info 127.0.0.1:30001

127.0.0.1:30001 (4979f858...) -> 1 keys | 5461 slots | 1 slaves.

127.0.0.1:30002 (4ff303d9...) -> 4 keys | 5462 slots | 1 slaves.

127.0.0.1:30003 (07e23080...) -> 3 keys | 5461 slots | 1 slaves.

[OK] 8 keys in 3 masters.

0.00 keys per slot on average.

添加节点/移除节点在拥有了集群之后, 用户就可以通过执行 add-node 命令或者 del-node 命令, 向集群里面添加新节点又或者移除已有的节点。

比如说, 通过执行以下命令, 我们可以把节点 30007 添加至集群当中:

redis-cli --cluster add-node 127.0.0.1:30007 127.0.0.1:30001

>>> Adding node 127.0.0.1:30007 to cluster 127.0.0.1:30001

>>> Performing Cluster Check (using node 127.0.0.1:30001)

...

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

>>> Send CLUSTER MEET to node 127.0.0.1:30007 to make it join the cluster.

[OK] New node added correctly.

又或者通过执行以下命令, 将 ID 为 e1971e... 的节点 30007 移出集群:

redis-cli --cluster del-node 127.0.0.1:30001 e1971eef02709cf4698a6fcb09935a910982ab3b

>>> Removing node e1971eef02709cf4698a6fcb09935a910982ab3b from cluster 127.0.0.1:30001

>>> Sending CLUSTER FORGET messages to the cluster...

>>> SHUTDOWN the node.

通过执行 reshard 命令, 用户可以将指定数量的槽从一个节点迁移至另一个节点。 比如说, 通过执行以下命令, 我们可以将 ID 为 4979f... 的节点 30001 目前负责的其中 10 个槽转交给 ID 为 1cd87d... 的节点 30007 负责:

$ redis-cli --cluster reshard 127.0.0.1:30001 --cluster-from 4979f8583676c46039672fb7319e917e4b303707 --cluster-to 1cd87d132101893b7aa2b81cf333b2f7be9e1b75 --cluster-slots 10

>>> Performing Cluster Check (using node 127.0.0.1:30001)

M: 4979f8583676c46039672fb7319e917e4b303707 127.0.0.1:30001

  slots:[0-5460] (5461 slots) master

  1 additional replica(s)

S: 4788fd4d92387fc5d38a2cd12f0c0d80fc0f6609 127.0.0.1:30004

  slots: (0 slots) slave

  replicates 4979f8583676c46039672fb7319e917e4b303707

S: b45a7f4355ea733a3177b89654c10f9c31092e92 127.0.0.1:30005

  slots: (0 slots) slave

  replicates 4ff303d96f5c7436ce8ce2fa6e306272e82cd454

M: 1cd87d132101893b7aa2b81cf333b2f7be9e1b75 127.0.0.1:30007

  slots: (0 slots) master

S: 7c56ffba63e3758bc4c2e9b6a55caf294bb21650 127.0.0.1:30006

  slots: (0 slots) slave

  replicates 07e230805903e4e1657743a2e4d8811a59e2f32f

M: 4ff303d96f5c7436ce8ce2fa6e306272e82cd454 127.0.0.1:30002

  slots:[5461-10922] (5462 slots) master

  1 additional replica(s)

M: 07e230805903e4e1657743a2e4d8811a59e2f32f 127.0.0.1:30003

  slots:[10923-16383] (5461 slots) master

  1 additional replica(s)

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

Ready to move 10 slots.

  Source nodes:

    M: 4979f8583676c46039672fb7319e917e4b303707 127.0.0.1:30001

      slots:[0-5460] (5461 slots) master

      1 additional replica(s)

  Destination node:

    M: 1cd87d132101893b7aa2b81cf333b2f7be9e1b75 127.0.0.1:30007

      slots: (0 slots) master

  Resharding plan:

    Moving slot 0 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 1 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 2 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 3 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 4 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 5 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 6 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 7 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 8 from 4979f8583676c46039672fb7319e917e4b303707

    Moving slot 9 from 4979f8583676c46039672fb7319e917e4b303707

Do you want to proceed with the proposed reshard plan (yes/no)? yes

Moving slot 0 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 1 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 2 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 3 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 4 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 5 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 6 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 7 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 8 from 127.0.0.1:30001 to 127.0.0.1:30007:

Moving slot 9 from 127.0.0.1:30001 to 127.0.0.1:30007:

当集群中各个节点的槽配置趋于不均衡的时候, 各个节点负担的载荷就可能会出现区别, 并导致某些节点超负荷运行, 而某些节点则长时间空置。 为了解决这个问题, 用户可以通过执行 rebalance 命令, 让各个节点负责的槽数量重新回到平均状态。

比如说, 对于以下这个由三个节点组成, 并且三个节点分别负责 2000 、 11384 和 3000 个槽的集群来说:

$ redis-cli --cluster info 127.0.0.1:30001

127.0.0.1:30001 (61d1f17b...) -> 0 keys | 2000 slots | 1 slaves.

127.0.0.1:30002 (101fbae9...) -> 0 keys | 11384 slots | 1 slaves.

127.0.0.1:30003 (31822e0a...) -> 0 keys | 3000 slots | 1 slaves.

[OK] 0 keys in 3 masters.

0.00 keys per slot on average.

我们可以通过执行以下命令来重新分配各个节点负责的槽:

$ redis-cli --cluster rebalance 127.0.0.1:30001

>>> Performing Cluster Check (using node 127.0.0.1:30001)

[OK] All nodes agree about slots configuration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

>>> Rebalancing across 3 nodes. Total weight = 3.00

Moving 3462 slots from 127.0.0.1:30002 to 127.0.0.1:30001

#####...#####

Moving 2461 slots from 127.0.0.1:30002 to 127.0.0.1:30003

#####...#####

在复杂均衡操作执行完毕之后, 集群各个节点负责的槽数量将趋于平均, 这样它们各自负担的载荷也会重新回到平均状态:

$ redis-cli --cluster info 127.0.0.1:30001

127.0.0.1:30001 (61d1f17b...) -> 0 keys | 5462 slots | 1 slaves.

127.0.0.1:30002 (101fbae9...) -> 0 keys | 5461 slots | 1 slaves.

127.0.0.1:30003 (31822e0a...) -> 0 keys | 5461 slots | 1 slaves.

[OK] 0 keys in 3 masters.

0.00 keys per slot on average.

在集群的所有节点中执行命令如果用户想要对集群中的所有节点执行同一个命令, 那么可以通过 call 命令来完成。 比如说, 通过执行以下命令, 用户就可以让集群中的每个节点都执行 DBSIZE 命令, 从而得到各个节点各自的数据库大小:

$ redis-cli --cluster call 127.0.0.1:30001 DBSIZE

>>> Calling DBSIZE

127.0.0.1:30001: (integer) 0

127.0.0.1:30004: (integer) 0

127.0.0.1:30005: (integer) 3

127.0.0.1:30006: (integer) 0

127.0.0.1:30002: (integer) 3

127.0.0.1:30003: (integer) 0

好的, 关于 redis-cli --cluster 选项的简单介绍就到此结束了, 希望这些介绍可以帮助大家更好地了解到这些命令。 大家有兴趣的话, 也可以以此为起点, 更加深入地学习这些命令。

欢迎工作一到五年的Java工程师朋友们加入Java架构开发: 855835163                            

群内提供免费的Java架构学习资料(里面有高可用、高并发、高性能及分布式、Jvm性能调优、Spring源码,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多个知识点的架构资料)合理利用自己每一分每一秒的时间来学习提升自己,不要再用"没有时间“来掩饰自己思想上的懒惰!趁年轻,使劲拼,给未来的自己一个交代!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,270评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,489评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,630评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,906评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,928评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,718评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,442评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,345评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,802评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,984评论 3 337
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,117评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,810评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,462评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,011评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,139评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,377评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,060评论 2 355

推荐阅读更多精彩内容