Centos下Redis Cluster生产环境的搭建与实践

一、环境介绍

操作系统:centos 6.10

redis版本:4.0.10

节点分布:部署6个redis节点,3主3从,分别安装在6台物理机上。

节点1:192.168.100.200
节点2:192.168.100.201
节点3:192.168.100.202
节点4:192.168.100.203
节点5:192.168.100.204
节点6:192.168.100.205

架构细节:

(1)所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽.

(2)节点的fail是通过集群中超过半数的节点检测失效时才生效.

(3)客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可

(4)redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护node<->slot<->value

redis-cluster选举:容错

(1)领着选举过程是集群中所有master参与,如果半数以上master节点与master节点通信超过(cluster-node-timeout),认为当前master节点挂掉.

(2)什么时候整个集群不可用(cluster_state:fail),当集群不可用时,所有对集群的操作做都不可用,收到((error) CLUSTERDOWN The cluster is down)错误

a:如果集群任意master挂掉,且当前master没有slave.集群进入fail状态,也可以理解成进群的slot映射[0-16383]不完成时进入fail状态.

b:如果超过集群半数以上master挂掉,无论是否有slave集群进入fail状态.

redis cluster节点分配

现在我们是三个主节点分别是:A, B, C 三个节点,它们可以是一台机器上的三个端口,也可以是三台不同的服务器。那么,采用哈希槽 (hash slot)的方式来分配16384个slot 的话,它们三个节点分别承担的slot 区间是:

节点A覆盖0-5460;

节点B覆盖5461-10922;

节点C覆盖10923-16383.

获取数据:

如果存入一个值,按照redis cluster哈希槽的算法: CRC16('key')384 = 6782。 那么就会把这个key 的存储分配到 B 上了。同样,当我连接(A,B,C)任何一个节点想获取'key'这个key时,也会这样的算法,然后内部跳转到B节点上获取数据   

新增一个主节点:

新增一个节点D,redis

cluster的这种做法是从各个节点的前面各拿取一部分slot到D上,大致就会变成这样:

节点A覆盖1365-5460

节点B覆盖6827-10922

节点C覆盖12288-16383

节点D覆盖0-1364,5461-6826,10923-12287

同样删除一个节点也是类似,移动完成后就可以删除这个节点了。

Redis Cluster主从模式

redis cluster 为了保证数据的高可用性,加入了主从模式,一个主节点对应一个或多个从节点,主节点提供数据存取,从节点则是从主节点拉取数据备份,当这个主节点挂掉后,就会有这个从节点选取一个来充当主节点,从而保证集群不会挂掉。

上面那个例子里, 集群有ABC三个主节点, 如果这3个节点都没有加入从节点,如果B挂掉了,我们就无法访问整个集群了。A和C的slot也无法访问。

所以我们在集群建立的时候,一定要为每个主节点都添加了从节点, 比如像这样, 集群包含主节点A、B、C, 以及从节点A1、B1、C1, 那么即使B挂掉系统也可以继续正确工作。

B1节点替代了B节点,所以Redis集群将会选择B1节点作为新的主节点,集群将会继续正确地提供服务。 当B重新开启后,它就会变成B1的从节点。

不过需要注意,如果节点B和B1同时挂了,Redis集群就无法继续正确地提供服务了。

二、redis cluster安装

安装依赖包和工具

yum -y install gcc ruby ruby-devel rubygems rpm-build

分别在节点1到节点6下载和解压

cd /usr/local/src
wget http://download.redis.io/releases/redis-4.0.10.tar.gz
tar -zxvf redis-4.0.10.tar.gz
mv redis-4.0.10 /usr/local/redis
mkdir -p /usr/local/redis-cluster
cd /usr/local/redis
make MALLOC=libc && make install PREFIX=/usr/local/redis-cluster

创建redis节点,每台服务器1个节点

先在节点1:192.168.100.200创建1个节点

修改redis.conf对应的配置

vi /usr/local/redis/redis.conf
port 6379 #监听端口
bind 0.0.0.0 #如果所有节点不在同一内网,改为0.0.0.0,如果在同一内网,建议绑定内网IP
daemonize yes #即默认以后台程序方式运行
protected-mode no #关闭保护模式
cluster-enabled yes #是否启用集群
cluster-config-file nodes-6379.conf #集群配置文件,这个文件是不存在的,不用创建,集群会自动生成更新
cluster-node-timeout 5000  //集群节点超时时间
appendonly yes       //开启aof日志

剩下的五台机器同样配置

分别启动六台物理机上各节点

/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf
/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf
/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf
/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf
/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf
/usr/local/redis-cluster/bin/redis-server  /usr/local/redis/redis.conf

查看服务

ps -ef | grep redis   #查看是否启动成功
netstat -tunlp | grep redis #可以看到redis监听端口

三、创建集群

1.安装redis接口(用gem 这个命令安装redis接口,gem是ruby的一个工具包,

当然,为了日后方便维护,六台Server都要安装。)

gem install redis

2.创建集群

确认所有的节点都启动后,使用如下命令创建集群

/usr/local/redis/src/redis-trib.rb create --replicas 1 192.168.100.200:6379 192.168.100.201:6379 192.168.100.202:6379 192.168.100.203:6379 192.168.100.204:6379 192.168.100.205:6379

其中 --replicas  1  表示 自动为每一个master节点分配一个slave节点    上面有6个节点,程序会按照一定规则生成 3个master(主)3个slave(从)

3.查看集群中的节点:

192.168.100.200:6379> cluster nodes

4.停止redis cluster实例:

停止redis实例,直接使用kill命令即可,重启和单机版相同,重启会自动转换成cluster模式。

四、测试

1)查看集群中的节点

redis-cli -h 192.168.100.200 -c -p 6379
cluster nodes

2)存取测试

redis-cli -h 192.168.100.200 -c -p 6379
set  sulao test

3)新增节点

1.添加一个新主(master)节点,按上述操作配置好单机版redis并启动,然后执行命令:

./redis-trib.rb add-node 192.168.100.206:6379 192.168.100.200:6379

其中192.168.100.206:6379是新增的节点,而192.168.100.200:6379是已存在的节点(可为master或slave)。

2.指定添加某master的新从(slave)节点,按上述操作配置好单机版redis并启动,然后执行命令:

./redis-trib.rb add-node --slave --master-id 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 192.168.100.207:6379 192.168.100.206:6379

其中192.168.100.207:6379是新增的slave节点,而192.168.100.206:6379是已存在的master节点,3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 是192.168.100.206:6379的master-id。

4)容错测试

Down掉1台master,集群OK, Down掉2台master,cluster is down!!  没办法,超过半数master挂掉,整个集群就无法工作了。


内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://sulao.cn/post/518.html